📢 转载信息
原文链接:https://techcrunch.com/2025/11/20/the-best-guide-to-spotting-ai-writing-comes-from-wikipedia/
原文作者:Russell Brandom
我们都曾产生过一种潜伏的怀疑,即我们正在阅读的内容是由大型语言模型(LLM)撰写的——但要确切指出这一点却异常困难。去年有几个月的时间,所有人都坚信像“delve”(深入探究)或“underscore”(强调)这样的特定词汇可以暴露模型的身份,但证据并不充分,而且随着模型的日益复杂,这些标志性的词汇也越来越难以追踪。
但事实证明,维基百科的编辑们在标记AI撰写的散文方面已经相当擅长了——该组织公开的关于“AI写作迹象”的指南,是我找到的用来确认你的怀疑是否合理的最佳资源。(要归功于诗人Jameson Fitzpatrick,他在X上指出了这份文件。)
自2023年以来,维基百科的编辑们一直在努力控制AI的提交内容,他们称之为“项目AI清理”(Project AI Cleanup)。每天都有数百万条编辑涌入,这提供了大量的素材,并且以经典的维基百科编辑风格,该小组制作了一份既详尽又充满证据的实地指南。
首先,该指南证实了我们已经知道的事情:自动化工具基本上是无用的。相反,该指南关注的是在维基百科上很少见但在整个互联网上很常见(因此,在模型的训练数据中也很常见)的习惯和措辞。根据该指南,AI的提交内容会花费大量篇幅来强调某个主题的重要性,通常使用像“一个关键时刻”或“一个更广泛的运动”这样笼统的术语。AI模型还会花费大量篇幅来详细描述次要的媒体曝光,以使主题显得重要——这种做法像你期待在个人简介中看到的那样,而不是在一个独立来源中。
该指南标记了一个特别有趣的怪癖,即用模糊的重要性声明来收尾从句。模型会说某个事件或细节正在“强调……的重要性”,或者“反映了……的持续相关性”。(语法专家会知道这被称为“现在分词”。)这有点难以确定,但一旦你能识别出来,你就会在任何地方都看到它。
AI生成的内容还倾向于使用模糊的营销语言,这在互联网上极其常见。风景总是风景如画,景色总是令人惊叹,而且一切都干净现代。正如编辑们所说,“它听起来更像是电视广告的实录。”
该指南值得完整阅读,但我对其印象非常深刻。在此之前,我会认为LLM的散文发展太快,无法确定。但这里标记的习惯深深植根于AI模型的训练和部署方式之中。它们可以被伪装,但要完全消除将非常困难。而且,如果公众对识别AI散文的认识提高了,可能会带来各种有趣的结果。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区