📢 转载信息
原文链接:https://www.wired.com/story/ai-models-social-media-cognitive-decline-study/
原文作者:Will Knight
人工智能模型可能和人类一样,也会出现“大脑腐烂”的现象。
德克萨斯大学奥斯汀分校、德克萨斯农工大学和普渡大学的一项最新研究表明,那些被喂食了流行的但低质量的社交媒体内容的语言模型,会经历一种类似于任何人在X(前Twitter)或TikTok上过度“末日滚动”(doomscrolling)后会感觉到的“大脑腐烂”。
该研究的作者之一,现任新加坡国立大学助理教授的Junyuan Hong表示:“我们生活在一个信息增长速度超过注意力跨度的时代——其中很多信息是为了吸引点击而设计的,而不是为了传达真相或深度。我们想知道:如果人工智能被训练了同样的东西,会发生什么?”
Hong和他的同事们在预训练阶段向两个开源大型语言模型(LLMs)投喂了不同类型的文本。他们研究了当模型被喂食混合了高度“引人注目”(即广泛分享)的社交媒体帖子,以及包含“哇”、“看”或“仅限今天”等煽动性或夸张文本的内容时,会发生什么。
研究人员随后使用几种不同的基准测试来衡量这种“垃圾”社交媒体饮食对Meta的Llama和阿里巴巴的Qwen这两个开源模型产生的影响。
那些被投喂了垃圾文本的模型经历了一种AI版的“大脑腐烂”——认知能力下降,包括推理能力减弱和记忆力退化。根据两项衡量标准,这些模型的伦理一致性也降低了,变得更加“反社会”(psychopathic)。
这些结果与关于人类受试者的研究相呼应,研究表明,低质量的在线内容会对人们的认知能力产生不利影响。由于这种现象的普遍性,“大脑腐烂”已被牛津词典评为2024年的年度词汇。
Hong表示,这些结果对人工智能行业很重要,因为模型构建者可能会认为社交媒体帖子是训练数据的良好来源。“训练于病毒式传播或吸引眼球的内容看起来像是数据量的扩大,”他说,“但它可能会悄悄地腐蚀推理能力、伦理观和长文本注意力。”
当人工智能本身越来越多地生成针对参与度进行优化的社交媒体内容时,LLMs遭受“大脑腐烂”的事实显得尤为令人担忧。研究人员还发现,那些因低质量内容而受损的模型,通过重新训练也难以得到改善。
研究结果还表明,围绕社交平台构建的AI系统,例如Grok,如果用户生成的内容在训练中使用,但没有关注帖子的完整性,可能会遭受质量控制问题。
Hong总结道:“随着越来越多的AI生成的垃圾信息在社交媒体上传播,它会污染未来模型将学习的原始数据。我们的发现表明,一旦这种‘大脑腐烂’出现,后期的清洁训练就无法完全消除它。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区