目 录CONTENT

文章目录

这款AI可以改进你的同行评审——并使其更加礼貌

Administrator
2026-02-23 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.nature.com/articles/d41586-026-00536-6

原文作者:Nicola Jones


根据一项新的研究表明1,一种人工智能教练可以帮助同行评审员提供更具建设性且毒性更低的反馈。然而,这种改进是否能提升研究论文的质量,还有待观察。

从事同行评审的科学家们正越来越多地转向AI来完成各种任务,包括搜索相关文献、润色措辞等。

加州斯坦福大学的计算机科学家James Zou及其同事着手评估大型语言模型(LLM)是否能帮助解决同行评审中的一个常见抱怨:反馈往往缺乏彻底性或措辞不当。例如,在2023年于加拿大多伦多举行的计算语言学协会年会(Association for Computational Linguistics annual meeting)上,会议论文的作者们标记了12.9%的评审为质量不佳。

Zou表示,这主要是因为评审意见含糊不清,包含“并非新颖”这类宽泛、简单的评论。Zou补充说,评审也可能(尽管很少)出现不专业或包含人身攻击,例如“这些作者根本不知道他们在谈论什么”。另一些评审则存在事实错误,比如批评工作遗漏了某项分析,而实际上该分析是存在的。

语气检查器

Zou和他的同事收集了大约十几条模糊、不专业或不正确的评审意见,以及他们认为针对这些评审的恰当反馈。他们将这些经过筛选的数据输入到LLM中以帮助其完善响应,并利用此开发了一个“评审反馈代理”(Review Feedback Agent),该代理总共使用了五个LLM来协作并互相检查工作。

该团队在2025年新加坡国际学习表征大会(International Conference on Learning Representations)召开前夕投入使用他们的AI工具。该顶级AI会议在过去几年已吸引了超过10,000篇投稿,每篇论文都由3-4人进行评审,最终录取率约为30%。

AI, peer review and the human activity of science

人工智能、同行评审与科学的人类活动




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区