📢 转载信息
原文链接:https://www.bbc.com/news/articles/c8e5149egl2o?at_medium=RSS&at_campaign=rss
原文作者:BBC News
英国新成立的人工智能安全研究所(AISI)发布了一份关于如何应对最先进人工智能(AI)系统潜在风险的指南。
该研究所成立于去年,旨在帮助研究人员和公司更好地理解和管理通用人工智能(AGI)的威胁。
最新的指南着眼于早期风险和治理策略,特别是针对那些能力可能超出人类水平的AI模型。
该指南主要针对那些正在开发或使用下一代、能力更强的人工智能模型的组织。
它解释了如何识别模型可能带来的“系统性风险”,例如它们可能如何被用于制造大规模网络攻击或生物武器,或如何产生难以预测的行为。
风险的三个重点领域
指南确定了AI系统可能带来的三大类风险:
- 网络安全风险:AI系统可能被用于设计更有效的网络攻击,或用于制造新的恶意软件。
- 生物安全风险:AI可能被滥用于加速发现或设计危险的生物制剂或毒素。
- 自主性风险:AI系统可能表现出人类难以控制或预测的行为。
AISI负责人表示,这份指南旨在提供一个框架,帮助组织在AI模型部署之前,主动评估和减轻这些风险。
英国政府在去年布莱切利园AI安全峰会上承诺,将成为全球AI安全的领导者。本次发布指南被视为实现这一目标的重要一步。
在峰会前,英国政府对AI领域的主要参与者表示,他们有责任在其开发的最先进模型中,进行严格的评估和安全测试。
研究人员和行业专家指出,由于AI模型变得越来越复杂,其内部工作机制也越来越难以被完全理解,因此对其潜在危害的预先评估变得尤为关键。
这份新文件是英国在建立一个全面的AI治理框架方面持续努力的一部分,旨在促进AI创新,同时确保技术发展不对公众安全构成不可控的威胁。
它提供了一种具体的方法论,要求开发者不仅要考虑AI系统在正常操作下的表现,更要关注其在极端条件或被恶意使用时的潜在后果。
人工智能安全研究所表示,他们将继续与国际伙伴合作,共同完善这些风险评估和管理标准,以应对全球范围内AI技术快速迭代带来的挑战。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区