📢 转载信息
原文链接:https://www.bbc.com/news/articles/c1lrlm9ydgno?at_medium=RSS&at_campaign=rss
原文作者:BBC News
一个主要的AI模型被设计为做出正确的决定,但它如何做出这个决定的过程仍然笼罩在“黑箱”之中,这在模型被用来指导或取代人类时引起了人们的警惕。
许多AI系统的核心是神经网络,这些系统通过分析大量数据来学习,并以极其复杂和非线性的方式做出预测或决策。
对于那些使用AI来诊断疾病或驾驶汽车等高风险任务的系统来说,这种不透明性是一个重大问题。
为什么理解AI模型很重要?
科技公司和研究人员正在努力解决模型可解释性(或称透明度)的问题。
微软研究院的萨米拉·沙伊赫(Samira Shaiq)博士说,当AI系统出错时,人们需要知道“为什么会出错”。
她告诉BBC:“我们需要能够解释AI是如何做出特定决定的,以便我们可以信任它并对其进行改进。”
目前的AI系统通常需要大量的训练数据才能达到人类或超越人类的性能水平。然而,这种复杂性使得追踪其内部逻辑变得极其困难。
偏见与可靠性
如果一个AI系统带有偏见,例如在信贷审批或招聘决策中表现出种族或性别偏见,那么了解其决策过程是至关重要的,以便纠正这些不公平的结果。
“如果你不理解模型,你就无法知道它是否公平,或者它是否会因为数据集中的偏差而犯下灾难性的错误,”沙伊赫博士解释道。
例如,如果一个用于诊断皮肤癌的AI模型是在白皙皮肤的图像上训练的,它在诊断深色皮肤患者时可能会出现显著的错误,而我们可能无法轻易发现这种系统性缺陷,除非我们能“打开黑箱”一探究竟。
可解释性技术(XAI)的兴起
研究人员正在开发一套名为可解释性人工智能(Explainable AI,简称XAI)的工具和技术,旨在使AI的决策过程更加透明。
这些方法包括:
- 局部解释: 尝试解释单个具体预测的原因。
- 全局解释: 试图理解整个模型的总体行为模式。
- 归因技术: 识别输入数据中对特定输出贡献最大的特征。
沙伊赫博士指出,即使是XAI工具本身也需要被验证,以确保它们提供的解释是准确且无误导性的。“XAI工具也是模型,它们也可能出错,”她强调。
法规与未来
随着AI的广泛应用,对透明度和问责制的需求也在增加。欧盟的《人工智能法案》(AI Act)等法规正在努力为高风险AI系统的部署设定标准,其中就包括对可解释性的要求。
最终目标是开发出既能保持高性能,又能提供清晰、可信赖解释的AI系统。只有当我们可以充分理解AI的推理过程时,我们才能真正地将其融入关键决策领域,并确保其安全和公平地造福社会。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区