目 录CONTENT

文章目录

英国AI新规:科技巨头需向政府报告风险评估,以平衡创新与安全

Administrator
2025-12-19 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.bbc.com/news/articles/cd6xl3ql3v0o?at_medium=RSS&at_campaign=rss

原文作者:BBC News


英国政府正在推出一项新规定,要求科技巨头向政府报告其最先进的人工智能(AI)系统的风险评估,目的是在鼓励创新的同时,确保这些系统不会对国家安全造成威胁。

科技巨头需报告最先进的AI风险

根据新规定,开发人员必须向英国数字、文化、媒体和体育部(DCMS)报告他们认为对英国社会“最可能造成严重伤害”的AI模型的风险评估。

首相府数字、科学、创新和技术大臣克洛伊·科尔温-海尔斯(Chloe Colvin-Hale)表示,这项要求旨在“平衡创新与安全”,并确保英国处于人工智能安全和监管的前沿。

该部门正在考虑的伤害包括:

  • 被用于网络攻击的AI工具
  • 可能被用于开发生物武器或化学武器的AI模型
  • 被用来实施大规模网络钓鱼的AI系统

政府表示,它将寻求能力最强的AI开发商的合作,以评估和减轻这些风险。

在AI安全峰会于布莱切利公园(Bletchley Park)举行后,政府制定了这些规则,旨在加强对前沿AI模型的监管。

新规定也为AI技术创新提供了清晰度,因为公司过去曾对政府的监管意图表示担忧。

科尔温-海尔斯女士在评论中说:“我们希望英国成为全球AI创新的领导者,但这也意味着要确保我们是全球AI安全最负责任的领导者。”

“通过这些新规定,我们正在为最先进的AI系统设定新的全球基准,要求公司对它们可能带来的最严重风险进行评估,并在我们共同努力建立安全、创新和繁荣的未来时,与我们分享这些见解。”

政府表示,将确保这些规定对专注于非前沿AI的公司产生“最小的合规负担”。

但AI安全研究人员对政府的监督范围表示欢迎,但也警告称,只有在有足够资源来有效执行监管措施的情况下,监管才会有意义。

AI伦理学家和研究人员认为,仅要求公司自愿报告风险评估是远远不够的。

AI安全研究所(AISI)的首席执行官阿里斯泰尔·麦肯齐-克拉克(Alistair Mackenzie-Clark)告诉BBC:“我们希望看到一个强大的、独立的机构来审查这些风险,而不是仅仅依赖于科技公司自身的评估。”

“政府正在建立一个监管框架,这令人鼓舞,但我们需要确保他们有能力去执行。”

政府希望在今年夏天晚些时候之前敲定该监管框架的细节,预计将对那些不遵守规定的公司实施罚款。

一个人正在使用电脑处理复杂的数字屏幕

该规定针对的是那些具有“前沿”能力的AI模型,这些模型在通用能力方面设定了新的标准,并且在网络安全、生物安全或生成高度逼真内容等方面展示出潜在的滥用能力。

此举是在去年英国主办首届AI安全峰会之后采取的,当时各国领导人承诺共同解决AI带来的风险。

政府希望监管能在明年年初实施,并计划对不合规的公司处以高达其全球营业额10%的罚款。

同时,英国还计划启动一个“AI安全顾问委员会”,由政府任命的专家组成,以提供独立的建议,并监督新框架的实施情况。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区