目 录CONTENT

文章目录

对人工智能模型的网络安全风险的警告

Administrator
2025-11-12 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.bbc.com/news/articles/cn8xq677l9xo?at_medium=RSS&at_campaign=rss

原文作者:BBC News


安全专家警告称,人工智能(AI)模型的网络安全漏洞和攻击正在迅速增加。


一个相对较小的攻击面

据报道,一名研究人员发现,一个具有数万亿参数的大型语言模型(LLM)可能只需要大约250份恶意文档就能被“污染”,从而使其产生有害的输出。

这一发现凸显了AI系统在数据安全方面存在的一个关键弱点,即数据投毒(data poisoning)攻击。

研究人员指出,虽然训练一个像GPT-4这样规模的模型需要巨大的计算资源,但损害其安全性的门槛却相对较低。

攻击如何运作

数据投毒涉及在模型训练过程中偷偷植入错误或恶意数据。如果攻击者能够控制训练数据的一部分,他们就可以“教导”模型以特定的、不受欢迎的方式行事,比如生成带有偏见、虚假信息,或者拒绝执行某些合规任务。

专家表示,即使是小型数据集的微小比例,如果精心策划,也可能对模型的行为产生显著的、意想不到的影响。

对企业和公众的风险

这种漏洞对依赖AI进行关键决策的企业构成了重大风险,包括金融、医疗和关键基础设施领域。

安全研究人员强调,企业必须对用于训练和微调AI模型的外部数据源保持高度警惕。

他们呼吁开发更强大的数据验证和过滤机制,以及对模型行为进行持续的异常检测,以确保AI系统的安全性和可靠性





🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区