📢 转载信息
原文链接:https://www.bbc.com/news/articles/cq8dp2y0z7wo?at_medium=RSS&at_campaign=rss
原文作者:BBC News
一名来自美国国家标准与技术研究院(NIST)的资深人工智能(AI)专家表示,应建立一个明确的“红队”(red-teaming)框架,用以测试和评估最先进的AI系统的安全性。
红队是指安全团队用来测试系统防御能力的一群人,其工作方式与黑客无异,旨在发现任何漏洞。
在周二于英国举行的一个会议上,NIST的首席人工智能科学家和网络安全专家穆克什·桑尼(Mukesh Soni)说,各国政府应共同努力,制定一个“统一的红队框架”。
他表示,这样做可以确保对新技术进行适当的风险管理。
担忧日益增加
该呼吁是在科技公司开发越来越复杂的AI模型,引发了人们对潜在风险的担忧之际提出的。
这些担忧包括,AI可能会被用来助长网络犯罪、传播虚假信息或被滥用于其他恶意目的。
桑尼先生将此比作网络安全领域,过去数十年里,各国对网络安全测试已经建立了非常成熟的流程。
“我们希望确保我们能以与网络安全过去几十年所做的那样,对AI系统进行有效的风险管理,”桑尼先生说。
他补充说,需要一个“跨行业的通用标准”,以便能够对AI系统进行“独立、公正的评估”。
国际合作
桑尼先生的言论是在英国政府主办的首届AI安全峰会(AI Safety Summit)之后发表的。
该峰会在英国布莱切利园(Bletchley Park)举行,汇集了全球的技术领导者和政府代表,共同讨论如何管理AI带来的“存在的风险”(existential risks)。
峰会后,英国、美国以及欧盟等签署了一项联合声明,承诺在AI安全方面进行合作。
桑尼先生表示,他希望红队框架能成为这种合作的一个组成部分。
“如果我们有一个通用的红队框架,那么任何一家公司、任何一个国家,都可以使用它来评估其模型的风险,”他说。
他表示,对AI系统进行测试的红队应是“跨学科的”,并且需要来自网络安全、语言学、认知科学以及生物学等多个领域的专家。
“红队”不仅要寻找AI系统本身可能存在的漏洞,还要考虑这些模型在“部署”到社会中之后可能产生的更广泛影响。
监管的挑战
桑尼先生承认,对AI进行监管仍然是一个巨大的挑战。
“我们仍然处于一个非常早期的阶段,”他说。
他指出,AI系统能力的发展速度非常快,模型正在变得越来越复杂,这使得很难预测它们在未来会如何表现。
“我们正在努力追赶,因为能力正在以指数级的速度增长,”桑尼先生说。
他表示,NIST正在与国际伙伴合作,制定一套“有意义的基准”,以帮助衡量AI的风险。
“我们需要一套关于AI模型的‘健康检查’清单,以便能够对它们进行基准测试、测试其风险,并在我们部署时对它们进行评估。”
桑尼先生总结说,红队框架应是可扩展的,并且能够随着AI技术的进步而不断发展。
“这意味着红队框架本身也需要不断演进,”他说。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区