目 录CONTENT

文章目录

AI安全峰会:科技巨头和政府齐聚一堂讨论前沿风险

Administrator
2025-12-05 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.bbc.com/news/articles/clydg2re4d1o?at_medium=RSS&at_campaign=rss

原文作者:BBC News


在英国首相里希·苏纳克(Rishi Sunak)的召集下,来自全球的科技巨头、政府代表和顶尖研究人员齐聚布莱切利园(Bletchley Park),共同探讨前沿人工智能(frontier AI)带来的风险。

这次为期两天的会议被视为全球人工智能安全治理的首次重大努力。此次会议的重点是那些能力远超现有技术的未来人工智能系统。

与会者包括美国副总统卡玛拉·哈里斯(Kamala Harris)、欧盟委员会主席乌尔苏拉·冯德莱恩(Ursula von der Leyen)、以及来自科技巨头如谷歌DeepMind、OpenAI和Anthropic的高管。

苏纳克首相表示,与会者同意人工智能构成“新的、全球性的、紧迫的”风险,需要国际社会共同应对。

我们正在讨论哪些风险?

布莱切利园曾是二战期间破解纳粹《英格玛》密码的秘密所在地,如今,它成为了讨论AI风险的背景。

峰会关注的重点是前沿AI,即指那些远远超出目前技术能力水平的系统。这些系统的潜在风险包括:

  • 网络安全:人工智能被用于发动更复杂的网络攻击。
  • 生物安全:人工智能被用于设计新的危险生物制剂。
  • 虚假信息:人工智能能够大规模生成高度逼真的虚假信息,影响社会稳定。

苏纳克首相对会议取得的进展表示满意,称“我们正在共同努力,确保未来人工智能的安全性”。

“布莱切利宣言”

峰会结束时发布了《布莱切利宣言》(Bletchley Declaration)。

该宣言由来自28个国家和欧盟的代表签署,承认前沿AI带来了“可能严重损害全球安全和稳定的巨大风险”。

宣言指出,各国政府和科技公司有责任“共同合作,确保人工智能的安全性”,特别是在“关键的风险领域”,如网络安全、生物安全和对人类福祉的潜在影响。

宣言还强调了对风险的理解是安全性的基础,并同意需要就风险评估进行国际合作。

国际合作的初步尝试

此次峰会是各国政府与科技界之间进行坦诚对话的开端。许多专家认为,此次会议更多是关于设定一个基调,而非制定具体的法律或监管措施。

据报道,与会者讨论了如何让科技公司对模型进行独立安全测试。但是,宣言本身并未对模型开发设定任何强制性的“红线”。

美国副总统哈里斯在峰会上宣布,美国将建立一个由人工智能安全研究所领导的前沿AI安全研究中心。该中心旨在确保AI系统在推出前得到安全评估。

她说:“我们将确保我们能够有效应对人工智能可能带来的威胁,同时利用其潜力。”

对未来的展望

科技领袖们也对风险表示了担忧,但强调了人工智能的巨大潜力。

DeepMind的首席执行官黛米斯·哈萨比斯(Demis Hassabis)表示,这些工具可以帮助解决人类面临的一些最大挑战,如气候变化和疾病。

“但我们必须小心谨慎,确保它们是安全的,”哈萨比斯说。“这次峰会让我们有机会讨论这些问题,并确保我们能把安全放在第一位。”

此次峰会标志着全球对人工智能安全治理的重视提升到了一个前所未有的高度,尽管具体的监管路径仍有待探索。

英国首相苏纳克还宣布,英国将在明年举办下一次AI安全峰会,届时将重点关注如何将这些国际共识转化为具体的行动。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区