📢 转载信息
原文链接:https://www.bbc.com/news/articles/cwyvjye18e9o?at_medium=RSS&at_campaign=rss
原文作者:BBC News
在人工智能(AI)被越来越多地用于管理和分析工作场所员工的工具和数据时,人们越来越担心这些系统是否公平地对待了所有申请者和员工。
科技公司表示,这些工具可以帮助减少招聘中的偏见,但批评人士指出,它们可能会无意中加剧现有的不平等现象。
随着科技公司对AI招聘工具的依赖增加,人们开始质疑其背后是否存在隐性偏见。
在伯明翰大学攻读人工智能研究的本·考克斯(Ben Cox)正在研究AI如何影响公平性,他警告说,AI工具可能会根据历史数据建立偏见。
“如果一个公司过去只雇佣男性担任某一职位,那么AI系统就会学习到这种偏见,并可能开始不成比例地拒绝女性申请者,”考克斯先生说。
“这就像公司把自己的偏见编码进系统,然后说,‘我们没有偏见,这是电脑做的。’”
为了解决这个问题,英国的政策制定者正在考虑立法,以确保AI工具的公平性。
英国政府的AI安全研究所(AI Safety Institute)正在努力起草指南,以帮助企业确保其AI工具在不同人群中表现公平。
然而,一些批评者认为,目前的措施还远远不够。
“我们应该更加小心,要确保AI不会将过去的歧视固化,”考克斯先生说。“我们需要建立问责制,并对这些算法进行严格的审计,而不是仅仅依靠它们本身。”
目前,许多大型科技公司和组织正在大力投资AI,声称这些工具可以帮助他们做出更客观、更高效的决策。但随着AI越来越多地渗透到就业的各个方面,公平性仍然是亟待解决的核心问题。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区