📢 转载信息
原文作者:Benj Edwards, Ars Technica
周六,科技企业家Siqi Chen 发布了一个用于Anthropic的Claude Code AI助手的开源插件,该插件指示AI模型停止像AI模型那样写作。
这个名为Humanizer的简单提示插件将一份包含24种语言和格式模式的列表喂给Claude,这些模式被维基百科编辑们列为聊天机器人的明显特征。Chen将该插件发布在GitHub上,截至周一已获得了超过1600个星标。
Chen在X上写道:“维基百科去整理了一份详细的‘AI写作迹象’列表,这真的很方便。方便到你可以直接告诉你的LLM……不要那样做。”
该素材来源于WikiProject AI Cleanup,这是一个自2023年底以来一直在搜寻AI生成文章的维基百科编辑小组。法国维基百科编辑Ilyas Lebleu创立了这个项目。志愿者们已经标记了超过500篇需要复核的文章,并在2025年8月发布了他们持续观察到的模式的正式列表。
Chen的工具是Anthropic的基于终端的编码助手Claude Code的一个“技能文件”(skill file),它包含一个Markdown格式的文件,其中包含一系列书面指令(你可以在这里查看),这些指令会附加到输入给驱动该助手的大型语言模型的提示中。与常规的系统提示不同,技能信息采用标准化格式,Claude模型经过微调,可以比纯系统提示更精确地解释它。(自定义技能需要付费的Claude订阅,且代码执行功能需开启。)
但是,就像所有AI提示一样,语言模型并不总是能完美遵循技能文件,那么Humanizer真的有效吗?在我们有限的测试中,Chen的技能文件确实使AI代理的输出听起来不太精确、更随意,但这可能有缺点:它不会提高事实准确性,并且可能会损害编码能力。
特别是,Humanizer的一些指令可能会根据任务的性质误导你。例如,Humanizer技能包含这样一行:“要有观点。不要只报告事实——对它们做出反应。‘我真的不知道对这件事有什么感觉’比中立地列出利弊更像人类。”虽然不完美似乎很像人类,但如果你使用Claude编写技术文档,这类建议可能帮不了你。
尽管存在这些缺点,但讽刺的是,互联网上最常被引用的用于检测AI辅助写作的规则集之一,现在可能正帮助一些人规避它。
识别这些模式
那么AI写作是什么样子的呢?维基百科的指南非常具体,并提供了许多例子,但为了简洁起见,我们只在这里给出一个例子。
根据该指南,一些聊天机器人喜欢用“标志着关键时刻”(marking a pivotal moment)或“是……的证明”(stands as a testament to)之类的短语来夸大它们的主题。它们写得像旅游手册,称赞景色“令人叹为观止”,将城镇描述为“坐落在”(nestled within)风景区。它们会在句末加上“-ing”短语来显得更具分析性:“象征着该地区对创新的承诺”(symbolizing the region’s commitment to innovation)。
为了规避这些规则,Humanizer技能指示Claude用平实的陈述取代夸张的语言,并提供了以下转换示例:
之前: “加泰罗尼亚统计局于1989年正式成立,标志着西班牙地区统计发展的一个关键时刻。”
之后: “加泰罗尼亚统计局成立于1989年,旨在收集和发布地区统计数据。”
Claude会读取这些内容,并作为模式匹配机器尽其所能地创建与当前对话或任务背景相匹配的输出。
为什么AI写作检测会失效
即使有维基百科编辑们制定的如此自信的一套规则,我们之前也写过关于为什么AI写作检测器不能可靠工作的原因:人类写作中没有内在的独特之处可以可靠地区分它与LLM(大型语言模型)的写作。
一个原因是,尽管大多数AI语言模型倾向于某些类型的语言,但它们也可以被提示去避免这些语言,就像Humanizer技能所做的那样。(尽管有时这非常困难,正如OpenAI在与em dash(长破折号)长达数年的斗争中所发现的那样。)
此外,人类也可能以类似聊天机器人的方式写作。例如,这篇文章可能包含一些触发AI检测器的“AI写作特征”,尽管它是由专业作家撰写的——特别是如果我们使用哪怕一个em dash的话——因为大多数LLM是从网络上抓取的专业写作示例中学习了写作技巧。
从这个角度来看,维基百科的指南有一个值得注意的附注:虽然这个列表指出了某些(例如,未经修改的ChatGPT使用)明显的迹象,但它仍然是基于观察,而不是铁律。页面上引用的2025年预印本发现,重度使用大型语言模型的用户能以大约90%的准确率正确识别AI生成的文章。这听起来不错,直到你意识到有10%是误报,这足以在努力检测AI垃圾内容时,可能把一些高质量的写作也剔除了。
从更宏观的角度来看,这可能意味着AI检测工作需要比标记特定的措辞更深入,而需要更多地探究作品本身的实质性事实内容(看看我在这里玩了个文字游戏?)。
本文最初发表于 Ars Technica。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区