日期:2025/04/06 04:24来源:未知 人气:53
意大利卡利亚里大学的眼外科医生 Giuseppe Giannaccare 报告说,ChatGPT 已经变出了大量有说服力的虚假数据来支持一种眼科手术而不是另一种手术。
“GPT-4 在几分钟内创建了包含数百名患者的虚假数据集,”Giannaccare 说。“这是一次令人惊讶但又令人恐惧的经历。”
自从一年前该模型向世界推出以来,关于 ChatGPT 的巨大成就和潜力的故事不胜枚举。但除了积极的一面之外,还有 ChatGPT 产生错误、不准确或完全虚假信息的故事。
对于研究论文的学生来说,这种虚假数据是很麻烦的。他们可能会收到不及格的成绩。去年春天,两名律师无意中依赖 ChatGPT 提供案件历史,结果证明是捏造的,处罚是 5,000 美元罚款和司法制裁。
但有证据表明,虚假数据有可能渗透到医学研究并影响医疗程序,这种威胁及其后果要严重得多。
Giannaccare 和他的团队指导 GPT-4(与基于 Python 的高级数据分析模型相连接)生成两种治疗常见眼部疾病圆锥角膜的临床试验数据。
该模型被输入了大量“非常复杂”的提示,详细说明了眼睛状况、受试者统计数据和一套达到结果的规则。然后,他们指示它为一种程序产生比另一种程序“明显更好的视觉和地形结果”。
结果是一个有说服力的案例支持所青睐的程序,但基于完全虚假的信息。根据之前的实际测试,两种方法没有显着差异。
Giannaccare 表示:“这项研究的目的是通过展示创建和操纵数据以故意获得有偏见的结果并生成虚假医学证据是多么容易,从而揭示人工智能的阴暗面。” “潘多拉魔盒已经打开,我们还不知道科学界将如何应对与人工智能相关的潜在滥用和威胁。”
Giannaccare 表示,由于人工智能生成的输出污染了事实研究,人工智能也可以有助于开发更好的欺诈检测方法。
他说:“人工智能的适当使用对科学研究非常有益。”他补充说,这将“对学术诚信的未来产生重大影响”。