目 录CONTENT

文章目录

英国政府发布首个国家人工智能安全研究所报告,警告大型AI模型风险

Administrator
2026-02-25 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.bbc.com/news/articles/cjrq1vwe73po?at_medium=RSS&at_campaign=rss

原文作者:BBC News


英国政府发布了其国家人工智能安全研究所(NAISI)撰写的第一份关于前沿人工智能(AI)模型的报告,概述了潜在的严重风险。

评估前沿AI模型

这份报告评估了当前最先进的AI模型在网络安全和生物安全等方面的风险。

政府表示,这些技术可能在未来几年内被用于制造具有“空前破坏性”的生化武器。

报告指出,AI模型可能在网络攻击中发挥作用,例如协助生成大规模网络钓鱼邮件。

报告的结论是,尽管这些技术具有巨大潜力,但风险仍然存在,并且在很大程度上尚未得到充分评估。

评估人工智能的风险

NAISI负责人保罗·克里斯蒂安(Paul Chiswick)表示:“我们认为,这些模型的风险很大程度上尚未得到充分理解。”

“我们的评估表明,这些模型可能会被用于帮助进行网络钓鱼活动,或者可能被用来使生物武器的研发自动化。”

该研究所的使命是评估和降低新兴技术的风险,特别是那些可能对英国构成“国家安全威胁”的技术。

该报告于本周早些时候在英国布莱切利园举行的全球AI安全峰会上发布。

政府在一份声明中表示,报告是“对当前前沿AI模型风险的深入评估,强调了需要采取果断行动来应对新兴的生物和网络安全威胁”。

这份报告的重点是“前沿”模型,即指那些在最近几个月内或即将推出的最大、最强大的模型。

对网络安全的担忧

关于网络安全,报告指出,模型可以被用来帮助进行网络攻击。

具体来说,AI可以被用于自动化网络钓鱼攻击,使其更具说服力,并能以更高的效率进行部署。

此外,报告还提到,AI可能会被用于寻找软件漏洞,这可能导致更严重的安全漏洞。

对生物安全的担忧

在生物安全方面,报告的发现更为严重。

报告警告说,一个“非常先进”的AI模型可能会被用于:

  • 设计新的生物武器
  • 合成新的、具有潜在危险的病原体
  • 使生物武器的研发自动化

报告指出,虽然这些风险在很大程度上仍是理论性的,但随着模型能力的提高,它们变得越来越现实。

尚未完全了解的领域

该报告强调,对这些强大模型的内部运作和潜在后果的了解仍然有限。

“我们还没有完全理解这些模型是如何工作的,以及它们最终会做什么,”克里斯蒂安先生说。

政府已经承诺将这些风险纳入其AI安全战略中,并正在努力与行业伙伴合作,以确保AI的开发和部署是安全的。

报告的发布标志着英国在主动管理AI风险方面迈出了重要一步,但它也表明,许多关键领域仍需要进行大量工作。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区