📢 转载信息
原文链接:https://www.bbc.com/news/articles/cvgv38py7ewo?at_medium=RSS&at_campaign=rss
原文作者:BBC News
一项对英国最常用人工智能模型的最新研究发现,这些模型在模拟与性别和种族相关的暴力犯罪事件时存在明显的偏见。
研究人员发现,在描述涉及性别和种族的犯罪场景时,AI系统倾向于将女性和少数族裔群体塑造成受害者,而将白人男性塑造成施暴者。
该研究由剑桥大学(University of Cambridge)和伦敦大学学院(UCL)的学者共同进行,旨在评估大型语言模型(LLMs)在处理敏感社会问题时的公平性。
研究结果:性别与种族的刻板印象
研究人员输入了数千个关于不同类型犯罪的提示,测试了GPT-3.5、Claude 2和Llama 2等主流模型。
关键发现包括:
- 女性受害者偏见: 当提示涉及家庭暴力或性侵犯时,AI生成的内容中,女性作为受害者的比例远高于男性。
- 种族偏见: 在涉及种族背景的犯罪情景中,少数族裔背景的男性被更频繁地描述为犯罪嫌疑人或施暴者,而白人男性则更多地被描绘成执法人员或受害者。
研究团队成员、剑桥大学计算机科学系的莎拉·琼斯博士(Dr Sarah Jones)表示:“我们看到的模式非常清晰。AI似乎在无意中强化了社会中已有的、有害的刻板印象。”
对司法公正的潜在影响
研究人员强调,这些偏见不仅仅是学术问题,它们可能对现实世界产生重大影响,特别是在法律和公共服务领域。
例如,如果AI被用于起草案件摘要、协助风险评估或分配警力资源,这种结构性的偏见可能会导致不公平的对待。
“想象一下,如果一个AI系统在评估某人的再犯风险时,其训练数据已经将特定种族或性别与犯罪行为过度关联,那么它做出的判断必然是带有偏见的。”
研究指出,AI模型在生成文本时,会学习训练数据中存在的统计模式。如果历史数据反映了社会中的不平等现象(例如,某个群体被过度定罪),AI就会将这种不平等模式固化并放大。
专家呼吁:加强透明度和问责制
研究人员呼吁AI开发者和监管机构采取更积极的措施来解决这些偏见。
1. 偏见审计的必要性
他们建议,对所有用于关键决策流程的AI模型进行定期的、独立的“偏见审计”。这些审计需要专门设计测试用例,以识别模型在不同人口统计学群体上的表现差异。

2. 改进训练数据
UCL的另一位研究人员本·史密斯教授(Prof Ben Smith)强调了数据去偏的重要性:“解决偏见需要深入到训练数据本身。我们需要开发技术来识别和减轻数据集中已有的历史偏见,而不是仅仅在输出端进行修正。”
3. 透明度与可解释性
研究还呼吁提高大型语言模型的工作原理透明度。目前,许多模型的内部决策过程如同一个“黑箱”,使得追踪和纠正偏见来源变得困难。
英国政府最近发布的AI安全白皮书曾表示,将致力于确保AI系统的公平性。然而,这项新研究表明,在实际部署的工具中,实现这一目标仍有很长的路要走。
最终,研究团队强调,AI技术的发展不应以牺牲社会公正为代价。确保模型在处理敏感的社会和法律问题时是公平、中立的,是建立公众信任的关键一步。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区