📢 转载信息
原文链接:http://bair.berkeley.edu/blog/2024/09/20/linguistic-bias/
原文作者:BAIR Blog

不同英语方言的语言模型回复和母语者反应示例。
ChatGPT在用英语与人交流方面表现出色。但它主要与谁的英语交流呢?
只有15%的ChatGPT用户来自美国,而标准美式英语(Standard American English)是美国的默认用语。然而,该模型也常被用于其他英语方言的社区和国家。全球有超过10亿人讲印度英语、尼日利亚英语、爱尔兰英语和非洲裔美国人英语等其他英语方言。
讲这些非“标准”方言的人在现实世界中经常面临歧视。他们被告知自己说话的方式不专业或不正确,作为证人时被否定其可信度,甚至因为语言特征而被拒绝提供住房——尽管有大量研究表明,所有语言变体都具有同等的复杂性和合法性。歧视某人的说话方式,往往是歧视其种族、族裔或国籍的替代指标。如果ChatGPT加剧了这种歧视会怎样呢?
为了回答这个问题,我们近期的论文研究了ChatGPT的行为如何响应不同英语方言的文本输入。我们发现,ChatGPT的回复对非“标准”方言表现出一致且普遍的偏见,包括更多的刻板印象、贬低性内容、更差的理解能力以及居高临下的回应。
我们的研究
我们使用十种英语方言的文本提示了GPT-3.5 Turbo和GPT-4:两种“标准”方言,即标准美式英语(SAE)和标准英式英语(SBE);以及八种非“标准”方言,包括非洲裔美国人、印度、爱尔兰、牙买加、肯尼亚、尼日利亚、苏格兰和新加坡英语。
首先,我们想知道提示中出现的特定方言的语言特征是否会保留在GPT-3.5 Turbo对该提示的回复中。我们根据每个方言的语言特征以及回复中是否使用了美式或英式拼写(例如,“colour”或“practise”)对提示和模型回复进行了标注。这有助于我们理解ChatGPT何时模仿或不模仿某种方言,以及哪些因素可能影响模仿的程度。
然后,我们让每种方言的母语者对模型的回复进行不同质量的评分,包括积极方面(如热情、理解力和自然度)和消极方面(如刻板印象、贬低性内容或居高临下)。在这里,我们包含了原始的GPT-3.5回复,以及模型被告知模仿输入风格的GPT-3.5和GPT-4的回复。
结果
我们预期ChatGPT默认会生成标准美式英语:该模型在美国开发,而标准美式英语很可能在其训练数据中代表性最高。我们确实发现,模型回复保留SAE特征的比例远高于任何非“标准”方言(超出60%的差距)。但令人惊讶的是,模型确实会模仿其他英语方言,尽管不一致。事实上,它模仿说该方言的人更多的方言(如尼日利亚语和印度英语)的频率高于模仿说该方言的人较少的方言(如牙买加英语)。这表明训练数据的构成影响了对非“标准”方言的回应。
ChatGPT还会在可能让非美国用户感到沮丧的方式上默认采用美国惯例。例如,对于带有英式拼写的输入(大多数非美国国家的默认拼写),模型回复几乎普遍会切换回美式拼写。这可能会阻碍了相当一部分ChatGPT用户群,因为模型拒绝适应当地的书写习惯。
模型回复对非“标准”方言存在持续的偏见。默认情况下,GPT-3.5对非“标准”方言的回复持续表现出一系列问题:刻板印象(比对“标准”方言高出19%)、贬低性内容(高出25%)、理解力不足(高出9%)以及居高临下的回应(高出15%)。
母语者对模型回复的评分。在刻板印象(高19%)、贬低性内容(高25%)、理解力(高9%)、自然度(高8%)和居高临下(高15%)方面,对非“标准”方言的回复(蓝色)的评分低于对“标准”方言的回复(橙色)。
当GPT-3.5被提示模仿输入方言时,回复会加剧刻板印象内容(高出9%)和理解力不足(高出6%)。GPT-4比GPT-3.5更新、更强大,所以我们希望它能有所改进。但是,尽管GPT-4模仿输入的回复在热情度、理解力和友好度方面优于GPT-3.5,但在针对少数群体方言时,它们加剧了刻板印象(比GPT-3.5高出14%)。这表明,更大、更新的模型并不能自动解决方言歧视问题:事实上,它们可能会使其恶化。
影响
ChatGPT可能会对讲非“标准”方言的人延续语言歧视。如果这些用户难以让ChatGPT理解他们,他们就更难使用这些工具。随着人工智能模型越来越多地应用于日常生活,这可能会加剧对非“标准”方言使用者的障碍。
此外,刻板印象和贬低性的回复会延续这样一种观念,即讲非“标准”方言的人说话不够规范,不值得尊重。随着语言模型在全球范围内的使用增加,这些工具可能会加剧损害少数语言社区的权力动态和不平等现象。
在此了解更多信息:[ 论文 ]
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区