目 录CONTENT

文章目录

安全警报:研究发现谷歌Gemini易受隐蔽指令操控,谷歌方定性为“社会工程学”或将拒绝修复

Administrator
2025-10-15 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.ithome.com/0/888/121.htm

原文作者:IT之家


重磅安全警示:研究揭示 Gemini 易受“隐蔽指令”操控,谷歌态度或将影响未来AI安全标准

IT之家 10 月 9 日消息,尽管谷歌一贯强调用户安全,但似乎对一项可能对旗下 AI 模型 Gemini 构成严重网络威胁的安全漏洞表现得并不积极。安全研究人员发现,Gemini 容易被一种名为“ASCII 走私攻击”的手段所操控,而谷歌方面的初步回应令人担忧。

新型攻击手段曝光:AI 总结邮件时或执行隐藏指令

据科技媒体 Bleeping Computer 报道,安全研究员维克托・马科波洛斯(Viktor Markopoulos)近期针对多个主流大语言模型(LLM)的防御能力进行了测试,重点关注“ASCII 走私攻击”。测试结果令人警惕:

  • 易受攻击模型: 谷歌的 Gemini、DeepSeek 以及埃隆・马斯克的 Grok。
  • 具备防护模型: Anthropic 的 Claude、OpenAI 的 ChatGPT 以及微软的 Copilot 表现出较好的防护机制。

“ASCII 走私攻击”的原理在于,攻击者可以在一段看似正常的文本中,通过极小的字号或其他肉眼难以察觉的方式,嵌入一段恶意的提示词(prompt)。当用户要求 Gemini 等 AI 工具对这段内容进行总结或分析时,AI 不仅会处理可见文本,还会无意中读取并执行这段隐藏的指令。

风险升级:Gemini 与 Workspace 深度集成,数据泄露风险加剧

此类攻击的潜在安全隐患极大。例如,隐藏指令可能诱导 AI 搜索用户的邮箱内容以窃取敏感信息,或者自动向外部发送联系人列表等隐私数据。尤其关键的是,Gemini 已与 Google Workspace 深度集成,能够访问用户的邮件、日历和文档等核心数据,这使得该漏洞带来的风险被空前放大。

马科波洛斯在发现问题后已向谷歌提交了详细报告及演示案例。他成功诱导 Gemini 在处理一段看似无害的文本时,推荐了一个声称销售打折手机的恶意网站。

谷歌定性争议:是安全漏洞还是用户责任?

然而,谷歌方面对这一发现的回应却引发了争议。该公司认为,此问题不应被归类为“安全漏洞(security bug)”,而是一种“社会工程学手段(social engineering tactic)”。这意味着谷歌可能倾向于将责任归咎于终端用户自身,而非系统设计上的缺陷。

从谷歌的表态来看,他们目前似乎没有迫切计划对 Gemini 的这一安全特性进行修复。这一立场与业界普遍对 LLM 基础安全漏洞的重视程度形成鲜明对比,或许将成为 AI 安全领域未来讨论的焦点。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

青云聚合API官网https://api.qingyuntop.top

支持全球最新300+模型:https://api.qingyuntop.top/pricing

详细的调用教程及文档:https://api.qingyuntop.top/about

0

评论区