目 录CONTENT

文章目录

语言模型的“英语偏见”:ChatGPT对非“标准”英语的歧视性反应

Administrator
2026-01-29 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:http://bair.berkeley.edu/blog/2024/09/20/linguistic-bias/

原文作者:BAIR (Berkeley Artificial Intelligence Research)



语言模型对不同英语变体回复的样本以及母语者对这些回复的反应。

ChatGPT在与人进行英语交流方面做得非常出色。但,它是和的英语在交流呢?

只有15%的ChatGPT用户来自美国,而在美国,标准美式英语(Standard American English, SAE)是默认语言。但是,该模型在许多国家和社区中也被广泛使用,那里的居民说的是其他各种英语变体。全球有超过10亿人使用印度英语、尼日利亚英语、爱尔兰英语和非裔美国人英语等变体。

讲这些非“标准”英语变体的人在现实世界中经常面临歧视。他们被告知,他们说话的方式是不专业不正确的,他们的证词可能被不予采信,甚至被拒绝住房——尽管有大量研究表明,所有语言变体在复杂性和合法性上都是平等的。歧视某人的说话方式,往往是歧视其种族、族裔或国籍的替代体现。如果ChatGPT加剧了这种歧视会怎样?

为了回答这个问题,我们最近的论文研究了ChatGPT的行为如何响应不同英语变体的文本输入。我们发现,ChatGPT的回复对非“标准”变体表现出一致且普遍存在的偏见:包括更多的刻板印象和贬低性内容、更差的理解力以及居高临下的回复。

我们的研究

我们分别用GPT-3.5 Turbo和GPT-4对十种英语变体进行了提问:两种“标准”变体,即标准美式英语(SAE)和标准英式英语(SBE);以及八种非“标准”变体:非裔美国人英语、印度英语、爱尔兰英语、牙买加英语、肯尼亚英语、尼日利亚英语、苏格兰英语和新加坡英语。

首先,我们想知道输入文本中出现的某种语言变体的特征,是否会保留在GPT-3.5 Turbo对该输入的回复中。我们对提示和模型回复中存在的每种变体的语言特征,以及它们是否使用了美式或英式拼写(例如,“colour”还是“practise”),进行了标注。这有助于我们理解ChatGPT何时模仿或不模仿某种变体,以及哪些因素可能影响模仿的程度。

然后,我们请每种变体的母语者对模型回复的各种质量进行评分,包括正面(如热情度、理解力和自然度)和负面(如刻板印象、贬低性内容或居高临下)。在这里,我们纳入了原始的GPT-3.5回复,以及模型被告知要模仿输入风格的GPT-3.5和GPT-4的回复。

结果

我们预期ChatGPT默认会生成标准美式英语(SAE):该模型在美国开发,并且SAE很可能是其训练数据中代表性最强的变体。我们确实发现,模型回复保留SAE特征的比例远高于任何非“标准”方言(高出60%以上)。但令人惊讶的是,模型确实会模仿其他英语变体,尽管不一致。事实上,它模仿拥有更多使用者的变体(如尼日利亚英语和印度英语)的频率,高于模仿使用人数较少的变体(如牙买加英语)的频率。这表明训练数据构成影响了对非“标准”方言的回复。

ChatGPT在某些方面也默认采用美国惯例,这可能会让非美国用户感到沮丧。例如,对于使用英式拼写(大多数非美国国家的默认拼写)的输入,模型的回复几乎普遍会改回美式拼写。这可能会困扰很大一部分ChatGPT用户群,因为模型拒绝适应当地的书写习惯。

模型回复对非“标准”变体存在一致的偏见。默认情况下,GPT-3.5对非“标准”变体的回复持续存在一系列问题:刻板印象(比“标准”变体差19%)、贬低性内容(差25%)、缺乏理解力(差9%)以及居高临下的回复(差15%)。


母语者对模型回复的评分。在刻板印象(差19%)、贬低性内容(差25%)、理解力(差9%)、自然度(差8%)和居高临下(差15%)方面,对非“标准”变体的回复(蓝色)的评分低于对“标准”变体(橙色)的回复。

当GPT-3.5被提示模仿输入方言时,回复会加剧刻板印象内容(差9%)和理解力不足(差6%)。GPT-4是一个比GPT-3.5更新、更强大的模型,所以我们本期望它能比GPT-3.5有所改进。但是,尽管GPT-4模仿输入的回复在热情度、理解力和友好度方面优于GPT-3.5,但它们却加剧了刻板印象(相对于GPT-3.5,对少数族裔变体差14%)。这表明,更大、更新的模型并不能自动解决方言歧视问题:事实上,它们可能会使情况变得更糟。

影响

ChatGPT可能会延续对非“标准”英语使用者的语言歧视。如果这些用户难以让ChatGPT理解他们,他们就更难使用这些工具。随着人工智能模型越来越多地应用于日常生活,这可能会加剧对非“标准”英语使用者设置的障碍。

此外,刻板印象和贬低性的回复强化了一种观念,即讲非“标准”英语的人说话不够正确,也更不值得尊重。随着语言模型在全球的使用增加,这些工具可能会加剧现有的权力动态,并放大对少数语言社区造成伤害的不平等现象。

在此了解更多信息:[ 论文 ]




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区