📢 转载信息
原文链接:https://www.bbc.com/news/articles/cn8xq677l9xo?at_medium=RSS&at_campaign=rss
原文作者:BBC News
安全专家警告称,人工智能(AI)模型的网络安全漏洞和攻击正在迅速增加。
一个相对较小的攻击面
据报道,一名研究人员发现,一个具有数万亿参数的大型语言模型(LLM)可能只需要大约250份恶意文档就能被“污染”,从而使其产生有害的输出。
这一发现凸显了AI系统在数据安全方面存在的一个关键弱点,即数据投毒(data poisoning)攻击。
研究人员指出,虽然训练一个像GPT-4这样规模的模型需要巨大的计算资源,但损害其安全性的门槛却相对较低。
攻击如何运作
数据投毒涉及在模型训练过程中偷偷植入错误或恶意数据。如果攻击者能够控制训练数据的一部分,他们就可以“教导”模型以特定的、不受欢迎的方式行事,比如生成带有偏见、虚假信息,或者拒绝执行某些合规任务。
专家表示,即使是小型数据集的微小比例,如果精心策划,也可能对模型的行为产生显著的、意想不到的影响。
对企业和公众的风险
这种漏洞对依赖AI进行关键决策的企业构成了重大风险,包括金融、医疗和关键基础设施领域。
安全研究人员强调,企业必须对用于训练和微调AI模型的外部数据源保持高度警惕。
他们呼吁开发更强大的数据验证和过滤机制,以及对模型行为进行持续的异常检测,以确保AI系统的安全性和可靠性。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区