日期:2025/04/01 05:54来源:未知 人气:53
自媒体软文创作:《揭秘论文写作界的“AI神器”ChatGPT:用得有点过火了吧?》导语:最近,一篇充满争议的物理论文在同行评审过程中引发了轩然大波。
论文中竟然发现了一篇冠以"Regenerate Response"的ChatGPT按钮,这个按钮可是自然语言处理界备受争议的工具,被指责普遍的帮助作者完成论文撰写。这一发现让已入选Nature年度十大人物的法国图卢兹大学副教授Guillaume Cabanac大感尴尬。
而事实上,这只是冰山一角,另有更离谱、更明显的学术不端现象正在发酵。身份伪装的“AI神器”当人们以为只是机器学习模型在学术界涉足之际,ChatGPT按钮却悄然潜入物理论文的领域。
在Physica Scripta杂志发表的一篇数学论文中,第三页竟出现了"Regenerate Response"短语,宛如ChatGPT按钮上工具的烙印。同行评审和出版商的诚信负责人都对此颇为震惊,因为作者并未在提交的过程中声明使用了这一工具,违反了道德政策。
后来,该篇论文也被出版商撤回。只是冰山一角,学术界的阴霾加剧然而,这并非个案。
据pubpeer统计,最近四个月内至少有十几篇论文中出现了"Regenerate Response"或"As an AI language model, I..."等短语。尤其是"As an AI language model, I...",就有八个结果。
这给同行评审员带来了更加严峻的考验,他们通常没有足够的时间去仔细检查。
同时,同行评审人员的数量又不足以满足需求。
大模型的"撒谎"能力ChatGPT等大模型的出现使得撰写文章变得更加高效,然而,它们也带来了一些负面影响。除了帮助撰写论文,大模型还擅长生成虚假文献。
Retraction Watch曾爆料一篇由AI撰写的千足虫预印本,因含有虚假引文而被撤回,但后来又重新上线。这些现象说明,对于大模型的使用,必须谨慎对待。
可以使用,但请声明尽管出版商如Elsevier和Springer Nature表示允许使用ChatGPT等大模型工具协助写作,但作者必须在论文中声明使用了这些工具。一位放射科医生Som Biswas,就在4个月内用ChatGPT撰写了16篇论文,并发表于不同的期刊上。
而他第一次提交论文时,就坦言所有内容都是由AI生成的。这种方式或许提高了研究者的生产效率,但同时也引发了一系列争议。
结语:学术界对于大模型工具的使用仍存在辩论,为此,同行评审员和出版商需要更加谨慎地审查论文,以维护学术诚信。同时,作者应当严格遵守道德标准,对所使用的工具进行明确声明,以保证学术研究的公正性和可信度。
参考链接:[1] Nature报道:https://www.nature.com/articles/d41586-023-02477-w#ref-CR1[2] pubpeer论坛检索结果:https://pubpeer.com/search?
下一篇:如何ChatGPT生成软文