📢 转载信息
原文链接:https://www.bbc.com/news/articles/cq6vnrye06po?at_medium=RSS&at_campaign=rss
原文作者:BBC News
美国政府已经发布了一份联邦人工智能安全评估框架,旨在帮助机构安全、负责任地部署人工智能技术。
这份框架是美国在人工智能治理方面迈出的最新一步,由白宫科技政策办公室牵头制定。
它针对的是开发和部署人工智能系统的组织,为它们如何评估和管理风险提供指导。
核心关注点
框架强调了几个关键领域,包括:
- 安全性和保障措施:确保AI系统在投入使用前经过严格的测试,特别是“红队”(red-teaming)测试,以发现潜在的漏洞和恶意行为。
- 风险评估:系统性地识别、测量和缓解AI系统可能带来的风险,特别是对公民权利和安全构成的风险。
- 透明度和问责制:要求机构对AI系统的决策过程有一定的透明度,并明确在出现问题时谁应负责。
美国总统拜登此前已签署了一项行政命令,要求开发先进AI模型的公司在发布前与政府共享测试结果。
该框架的发布是对这一行政命令的进一步细化和落实,旨在为联邦机构提供一个可操作的指南,以应对日益复杂和强大的AI技术带来的挑战。
政府官员表示,该框架旨在平衡创新与安全。他们认识到AI技术的巨大潜力,但同时也强调必须采取预防措施,防止AI被滥用或产生意外的负面后果。
专家反应
人工智能领域的专家和倡导者普遍对政府采取更积极的监管措施表示欢迎,但也对执行的有效性表示关注。
“这是朝着正确方向迈出的一步,但关键在于机构如何真正地将这些评估融入他们的日常操作中,”一位专注于AI伦理的研究人员表示。
该框架被设计成“灵活的”,以适应AI技术不断演进的速度。它鼓励机构在部署前考虑AI的潜在社会影响,包括公平性、偏见和数据隐私问题。
随着AI工具(如ChatGPT等生成式模型)在政府部门的应用日益增多,确保这些工具的安全性和可靠性成为了联邦政府的首要任务之一。
这份评估框架标志着美国政府对AI治理的承诺从概念走向实践,为未来更全面的AI法规奠定了基础。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区