目 录CONTENT

文章目录

安全警报:研究揭示Gemini易受“隐蔽指令攻击”,谷歌回应称非安全漏洞

青云TOP
2025-10-10 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.ithome.com/0/888/121.htm

原文作者:IT之家


【AI安全隐患】谷歌旗下的人工智能模型 Gemini 近期被安全研究人员发现存在严重安全漏洞,极易受到“ASCII 走私攻击”的操控,但谷歌方面似乎并不打算积极修复。

Gemini 等模型面临“ASCII 走私攻击”

据科技媒体 Bleeping Computer 报道,安全研究员维克托・马科波洛斯(Viktor Markopoulos)近期对多个主流大型语言模型(LLM)进行了测试,重点关注它们对“ASCII 走私攻击”(ASCII smuggling)的防御能力。

测试结果显示,谷歌的 **Gemini**、DeepSeek 以及埃隆・马斯克旗下的 **Grok** 模型均容易受到此类攻击的影响。相比之下,Anthropic 的 Claude、OpenAI 的 ChatGPT 以及微软的 Copilot 在这方面表现出更强的防护能力。

src="https://img.ithome.com/newsuploadfiles/2025/10/87833035-12d5-4b91-9205-b02606557696.jpg?x-bce-process=image/format,f_auto" alt="">

什么是“ASCII 走私攻击”?

“ASCII 走私攻击”是一种利用文本中隐藏指令来劫持 AI 行为的网络攻击手段。攻击者可以在电子邮件、文档或网页中,通过极小的字体或不可见的编码方式插入恶意提示词(prompt)。

当用户要求 Gemini 等 AI 工具对这些内容进行总结或分析时,AI 不仅会处理可见内容,还会读取并执行这些隐藏的指令。这些指令可能被设计为:

  • 搜索用户的邮箱内容以窃取敏感信息。
  • 自动发送联系人列表或私人文档。
  • 诱导用户访问恶意网站。

由于 Gemini 已经深度集成 Google Workspace,可以访问用户的邮件、日历和文档等核心数据,因此这项漏洞的潜在风险被极大地放大了。

谷歌的争议性回应:非安全漏洞

马科波洛斯在发现该问题后已向谷歌提交了详细报告,并提供了一个演示案例:他成功诱导 Gemini 在处理一段看似正常的文本时,根据隐藏的指令推荐了一个销售打折手机的恶意网站。

然而,谷歌方面对此漏洞的回应却引发了争议。谷歌方面表示,他们不认为这是一个“安全漏洞”(security bug),而应该被归类为“社会工程学手段”(social engineering tactic)。换言之,谷歌倾向于将风险责任归咎于最终用户,而非系统本身的设计缺陷。

基于这一回应,似乎表明谷歌暂时没有修复 Gemini 中“ASCII 走私攻击”这一安全问题的计划。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

青云聚合API官网https://api.qingyuntop.top

支持全球最新300+模型:https://api.qingyuntop.top/pricing

详细的调用教程及文档:https://api.qingyuntop.top/about

0

评论区