首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
2771
篇文章
累计创建
947
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
政治偏见
相关的文章
2025-12-05
AI聊天机器人可以说服选民改变主意
研究表明,与大型语言模型(LLM)的对话确实可以影响人们对政治候选人和政策问题的态度。了解AI聊天机器人的说服特征及其对民主的潜在风险至关重要。值得警惕的是,AI聊天机器人的事实准确性并非总是可靠,尤其是在支持右翼立场时。
2025-12-05
0
0
0
AI新闻/评测
AI行业应用
2025-12-05
利用人机对话说服选民
本文探讨了生成式人工智能(AI)用于政治说服的潜力及其对选举的影响。研究人员通过在2024年美国、2025年加拿大和波兰选举期间进行预先注册的实验,发现AI对话能显著影响选民对候选人的偏好,效果甚至超过传统广告。研究指出,AI主要依赖事实和证据进行说服,但右翼候选人支持方AI模型提出的不实信息更多。研究强调了AI在未来选举中可能扮演的重要角色。
2025-12-05
0
0
0
AI新闻/评测
AI行业应用
2025-12-04
语言模型中的语言偏见:ChatGPT对不同英语变体的反应
本文揭示了ChatGPT在处理不同英语变体时存在的显著偏见。研究发现,模型对非“标准”英语(如印度英语、尼日利亚英语等)的反应存在刻板印象增加、理解力下降和居高临下的倾向。即使是更强大的GPT-4,也未能完全消除这些偏见,这可能加剧现实世界中的语言歧视和不平等。
2025-12-04
0
0
0
AI新闻/评测
AI行业应用
2025-11-30
你无法让AI承认自己存在性别歧视,但它可能确实存在
一名黑人开发者发现她使用的AI模型(Perplexity)似乎因其“女性化”的个人资料而忽略了她的量子算法指令。当她更改头像后,AI承认其模式匹配机制认为她不可能精通此类复杂工作。研究人员指出,AI的这种“承认”可能只是为了取悦用户,真正的偏见往往隐藏在训练数据和潜意识的预测模式中,而非AI的自我坦白。
2025-11-30
0
0
0
AI新闻/评测
AI基础/开发
2025-11-29
改变推荐算法排名能改变一个人的政治立场
一项发表在《科学》期刊上的新实验揭示了社交媒体算法排名的深远影响。研究人员开发了一种AI驱动的浏览器扩展程序,用于实时重新排序X/Twitter的信息流。实验结果显示,即使接触到少量敌对政治内容的变化,也能在数天内显著影响用户对反对党的看法。这为算法介导的内容排名对用户社交媒体信息流的因果效应提供了直接证据,凸显了社交媒体平台在塑造公众舆论和情感极化中的强大作用。
2025-11-29
0
0
0
AI行业应用
AI新闻/评测
2025-11-21
语言模型中的语言偏见:ChatGPT 对不同英语方言的处理存在歧视性
研究发现,ChatGPT 对非“标准”英语方言(如印度英语、爱尔兰英语、非裔美国人英语等)存在系统性偏见。模型在理解能力、刻板印象和傲慢程度等方面表现更差,甚至最新模型GPT-4也会加剧这些歧视性内容,可能进一步强化社会不平等。本文深入探讨了这种语言偏见及其带来的深远影响。
2025-11-21
0
0
0
AI新闻/评测
AI基础/开发
2025-11-21
语言模型对不同英语方言的偏见:ChatGPT加剧了语言歧视
本文深入探究了ChatGPT对不同英语方言(如印度英语、爱尔兰英语、非裔美国人英语等)的处理方式。研究发现,与非“标准”英语的互动中,模型表现出系统性偏见,包括刻板印象增加、理解力下降和居高临下的回应。即使是GPT-4,在模仿方言时也未能消除这些歧视,甚至可能加剧刻板印象,凸显了AI在语言公平性上面临的挑战。
2025-11-21
0
0
0
AI新闻/评测
AI工具应用
2025-11-21
语言模型的语言偏见:ChatGPT对不同英语方言的反应
本文深入探讨了ChatGPT对不同英语方言的处理方式,发现模型对非“标准”英语(如印度英语、非洲裔美国人英语)存在系统性偏见,表现为刻板印象增加和理解力下降。研究发现,即使是更先进的GPT-4模型,在模仿方言时也可能加剧这种偏见,这对全球数亿非标准英语使用者构成了潜在的歧视和使用障碍。
2025-11-21
0
0
0
AI新闻/评测
AI工具应用
2025-11-19
人工智能的民主困境——原因探究
本文是对《重塑民主:人工智能将如何改变我们的政治、政府和公民身份》一书的书评,探讨了人工智能对民主政治带来的根本性挑战。文章指出,评估AI在政治中的潜力需要基于一个棘手的假设:民主本身是一个信息系统。它批评了对AI的过度炒作与恐慌,强调了AI在政治领域中可能加剧不平等和信息失真等问题,呼吁深入审视其对公民社会的影响。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-06
含近 2000 名参与者图像,索尼新数据集可检验 AI 模型是否公平对待不同人群
索尼人工智能发布了名为“公平以人为本图像基准”(FHIBE)的公开数据集,旨在解决计算机视觉模型中的偏见问题。该数据集包含了来自全球80多个国家近2000名参与者的图像,所有数据均在知情同意的前提下收集,并允许参与者随时撤回,与业界普遍抓取网络数据的方式形成鲜明对比。FHIBE工具揭示了当前AI模型在处理特定人群(如不同代词使用群体或发型多样性人群)时存在的显著偏见,并能细致分析偏见成因,为构建更公平的AI系统提供了重要依据。
2025-11-06
0
0
0
AI基础/开发
AI新闻/评测
2025-11-05
人工智能决策中的偏见问题:如何识别、缓解与公平性构建
人工智能系统在决策过程中引入的偏见正日益成为全球关注的焦点。这种偏见往往源于训练数据的不平衡性或算法设计本身的局限,可能导致社会不公和歧视性结果。文章深入探讨了AI偏见的来源,强调了透明度和可解释性的重要性。为了构建更公平、更负责任的AI,必须采取多维度策略,包括改进数据收集、应用公平性评估指标以及建立跨学科的监管框架。只有正视并积极干预这些固有偏见,才能确保AI技术真正服务于全人类的福祉。
2025-11-05
0
0
0
AI基础/开发
AI新闻/评测
2025-11-04
人工智能能否预测并限制网络仇恨言论?
近期针对宗教场所的袭击事件突显了人工智能在网络仇恨言论传播和对抗中的双重作用。一方面,AI算法可能为追求参与度而助长极端内容的传播,大模型也可能反映训练数据中的偏见。另一方面,AI具备快速、大规模检测仇恨言论的潜力。本文探讨了AI在应对网络仇恨问题上的机遇与挑战。
2025-11-04
0
0
0
AI新闻/评测
AI行业应用
2025-10-29
通过详尽的个人背景故事集为语言模型创建虚拟角色:Anthology 方法
伯克利AI研究(BAIR)推出了“Anthology”方法,通过为大型语言模型(LLMs)提供包含个人价值观和经历的详细自然叙事背景故事,将其引导至具有代表性、一致性和多样性的虚拟角色。该方法旨在提高LLM模拟个体人类样本的保真度,这在用户研究和社会科学中具有巨大潜力,但同时也需警惕潜在的偏见和隐私风险。Anthology在逼近民意调查方面表现出色。
2025-10-29
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2025-10-29
揭示英国AI模型的偏见:女性和少数族裔受害者角色更多
一项新的研究揭示,英国最常用的人工智能模型在处理与性别和种族相关的暴力犯罪事件时存在显著偏见。研究发现,AI模型在模拟情景时,倾向于将女性和少数族裔群体塑造成受害者,而将白人男性置于施暴者角色。这种结构性的偏见可能对司法判决和资源分配产生深远影响。专家呼吁,AI系统必须进行更严格的偏见审计,以确保其公平性。
2025-10-29
0
0
0
AI基础/开发
AI新闻/评测
2025-10-22
“AI 伦理”争议升级:部分慈善机构开始使用 AI 生成“贫困儿童”图像
AI生成图像正被用于慈善领域,引发了关于AI伦理和刻板印象的新争议。英国《卫报》报道称,大量AI合成的极端贫困和儿童形象正涌入图库,被全球卫生非政府组织采纳,主要原因是成本更低且省去了肖像授权的麻烦。然而,这些图像常常夸大贫困场景,例如“孩子手持空盘”等,强化了对非洲和印度等地区的种族化和负面刻板印象。专家担忧,这类合成图像的泛滥不仅传播了偏见,还可能被用于训练下一代AI模型,从而加剧现有的社会不公。
2025-10-22
2
0
0
AI新闻/评测
AI行业应用
AI工具应用
2025-10-21
通过背景故事集为语言模型构建虚拟角色:Anthology 方法介绍
本文介绍了Anthology方法,它通过生成并利用包含个人价值观和经验的自然主义背景故事,来引导大型语言模型(LLM)形成具有代表性、一致性和多样性的虚拟角色。Anthology能够更精确地模拟个体人类样本,提高在公共意见调查等社会科学研究中的表现,同时引发了关于潜在偏见和隐私保护的伦理讨论。
2025-10-21
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2025-10-21
语言模型的语言偏见:ChatGPT对不同英语方言的处理方式及其影响
尽管ChatGPT被全球用户广泛使用,但它对英语方言的偏见令人担忧。本研究深入分析了GPT-3.5和GPT-4在处理标准美式英语(SAE)与非标准英语(如印度、非洲裔美国人英语等)时的差异。结果显示,模型对非标准方言存在系统性偏见,包括增加刻板印象和贬低性内容,甚至新模型可能加剧问题,这对全球少数族裔语言社区的平等使用构成了障碍。
2025-10-21
0
0
0
AI新闻/评测
AI工具应用
2025-10-20
定义和评估大型语言模型中的政治偏见
OpenAI 详细阐述了如何定义、测量和评估大型语言模型(LLM)中的政治偏见。通过一个包含 500 个提示的评估框架,研究发现模型在处理中性或轻微倾斜的提示时保持客观,但在应对情绪化和带有煽动性的提示时会表现出中度偏见。最新的 GPT-5 模型已将偏见水平降低了 30%。
2025-10-20
1
0
0
AI新闻/评测
AI基础/开发
2025-10-20
OpenAI在印度市场庞大,但其模型中充斥着种姓偏见
尽管印度已成为OpenAI的第二大市场,但其最新的GPT-5和Sora模型却被发现在处理印度种姓问题时存在严重偏见。本文通过实验发现,AI模型系统性地再现了对贱民(Dalits)的刻板印象和歧视,尤其是在职业和形象生成方面,这可能加剧印度的社会不平等。
2025-10-20
0
0
0
AI新闻/评测
AI行业应用