📢 转载信息
原文链接:https://www.nature.com/articles/d41586-026-00893-2
原文作者:Elizabeth Gibney

一场重量级的人工智能学术会议近期采取了果断措施,拒绝了 497 篇论文,这一数字约占总投稿量的 2%。被拒原因在于,这些论文的作者在对其他参会论文进行同行评审时,违反了会议关于人工智能使用的相关规定。
即将于今年 7 月在首尔举行的国际机器学习会议(ICML)实行“互惠评审”政策,即除特殊情况外,每篇参会论文的作者都必须参与其他论文的评审工作。而此次,凡是评审意见被检测出违反了该会议关于大语言模型(LLM)使用政策的作者,其本人的论文直接被取消了参会资格。
巧妙的“隐形水印”捉贼法
为了精准抓出违规使用 AI 的行为,会议组织者在分发给评审人的研究论文中植入了隐藏水印。如果研究人员使用大语言模型来生成评审内容,这些隐藏在水印中的特定指令就会诱导 AI 在回复文本中包含某些特定的“标记短语”。只要评审意见中出现了这些短语,组织者就能确凿地断定该评审是由 AI 模型生成的,而非人工撰写。
组织者在 3 月 18 日发布的博客文章中表示:“我们希望通过对违规行为采取坚决行动,提醒整个学术界:在这个领域快速变革的时代,我们最需要积极守护的,是彼此之间的信任。”
学术界的警示
瑞士洛桑 Frontiers 出版社的编辑伦理与质量保证负责人 Marie Soulière 指出:“ICML 的案例清楚地表明,学术界迫切需要关于如何负责任地使用 AI(包括在同行评审中)的明确指导建议。”
据统计,目前已有超过半数的研究人员开始在同行评审中使用 AI,但其中许多使用行为并未遵循相关指南。这一事件无疑为全球科研工作者敲响了警钟。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

评论区