目 录CONTENT

文章目录

英国政府发布AI安全研究所指南:聚焦早期风险和治理策略

Administrator
2026-01-18 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.bbc.com/news/articles/c8e5149egl2o?at_medium=RSS&at_campaign=rss

原文作者:BBC News


英国新成立的人工智能安全研究所(AISI)发布了一份关于如何应对最先进人工智能(AI)系统潜在风险的指南。


该研究所成立于去年,旨在帮助研究人员和公司更好地理解和管理通用人工智能(AGI)的威胁。


最新的指南着眼于早期风险治理策略,特别是针对那些能力可能超出人类水平的AI模型。


该指南主要针对那些正在开发或使用下一代、能力更强的人工智能模型的组织。


它解释了如何识别模型可能带来的“系统性风险”,例如它们可能如何被用于制造大规模网络攻击或生物武器,或如何产生难以预测的行为。


风险的三个重点领域


指南确定了AI系统可能带来的三大类风险:

  • 网络安全风险:AI系统可能被用于设计更有效的网络攻击,或用于制造新的恶意软件。
  • 生物安全风险:AI可能被滥用于加速发现或设计危险的生物制剂或毒素。
  • 自主性风险:AI系统可能表现出人类难以控制或预测的行为。

AISI负责人表示,这份指南旨在提供一个框架,帮助组织在AI模型部署之前,主动评估和减轻这些风险。


英国政府在去年布莱切利园AI安全峰会上承诺,将成为全球AI安全的领导者。本次发布指南被视为实现这一目标的重要一步。


在峰会前,英国政府对AI领域的主要参与者表示,他们有责任在其开发的最先进模型中,进行严格的评估和安全测试


研究人员和行业专家指出,由于AI模型变得越来越复杂,其内部工作机制也越来越难以被完全理解,因此对其潜在危害的预先评估变得尤为关键。


这份新文件是英国在建立一个全面的AI治理框架方面持续努力的一部分,旨在促进AI创新,同时确保技术发展不对公众安全构成不可控的威胁。


它提供了一种具体的方法论,要求开发者不仅要考虑AI系统在正常操作下的表现,更要关注其在极端条件或被恶意使用时的潜在后果。


人工智能安全研究所表示,他们将继续与国际伙伴合作,共同完善这些风险评估和管理标准,以应对全球范围内AI技术快速迭代带来的挑战。

AI Safety Institute Logo


🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区