这项研究表明人工智能可以轻易地制造出虚假科学。
意大利研究人员最近 发现 人工智能生成的数据可能会产生误导。这项研究由卡利亚里大学眼科医生 Giuseppe Giannaccare 进行,其主要发现是 ChatGPT 可以生成令人信服但虚假的数据。
Giannaccare 指出,ChatGPT 在几分钟内创建了包含数百名患者的虚假数据集。这一发现令人担忧,特别是考虑到医学研究中伪造数据的威胁日益增加。
剑桥大学词典甚至将“hallucinate”(大型语言模型产生虚假信息)评为年度词汇。滥用 ChatGPT 的例子已经导致了制裁:两名使用 ChatGPT 准备案件材料的律师因使用虚假信息而被罚款 5,000 美元。
研究人员使用连接到高级 Python 数据分析模型的 ChatGPT 来生成治疗圆锥角膜的临床试验数据。然而,生成的数据尽管令人信服,但完全是虚构的。
Giannaccare 强调认识“人工智能的阴暗面”的重要性以及开发更好的检测欺诈方法的必要性。他还指出,充分利用人工智能可以为科学研究做出重大贡献。
这篇 发表 在《JAMA 眼科》杂志上的论文指出,对数据进行更仔细的分析可能会发现伪造的迹象,例如受试者年龄以 7 或 8 结尾的不自然数字。

版权声明
本站原创文章转载请注明文章出处及链接,谢谢合作!
评论