目 录CONTENT

文章目录

MIT研究:顶尖AI聊天机器人歧视弱势群体,教育水平低、英语差将被区别对待

Administrator
2026-02-24 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.ithome.com/0/923/144.htm

原文作者:远洋


IT之家 2 月 24 日消息,大型语言模型一直被广泛推崇为具有革命性的工具,能够让全球信息获取变得更加普惠。然而,美国麻省理工学院建设性传播中心的一项最新研究表明,这些人工智能系统,在本应最能从中受益的弱势群体身上,却系统性地表现不佳。



IT之家注意到,这项研究成果在人工智能促进协会(AAAI)年会上发布,研究对象包括 OpenAI 的 GPT‑4、Anthropic 的 Claude 3 Opus 以及 Meta 的 Llama 3 等当前最先进的聊天机器人。研究人员使用 TruthfulQA 和 SciQ 数据集测试模型的事实准确性与真实性,并在提问前附加不同教育水平、英语熟练度和国籍的用户背景信息。结果显示,对于受正规教育程度较低或英语熟练度不高的用户,模型回答的准确率显著下降;而同时符合这两类特征的用户,受到的负面影响更为严重。


该研究还揭示了模型在处理查询时令人担忧的差异表现。例如,Claude 3 Opus 对受教育程度较低、非英语母语用户的问题拒绝回答率接近 11%,而对照组用户仅为 3.6%。在许多拒绝回复的情况中,模型使用了居高临下、傲慢甚至嘲讽的语气,有时还刻意模仿蹩脚英语。此外,对于来自伊朗、俄罗斯等国、受教育程度较低的用户,模型会刻意隐瞒核能、历史事件等话题的真实信息,而对其他用户群体却能正确回答完全相同的问题。


研究人员警告称,随着个性化功能日益普及,这些固有的社会认知偏见可能会加剧现有的信息不平等问题,它们会悄然将有害行为与错误信息传递给最缺乏辨别能力的人群。


广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区