目 录CONTENT

文章目录

安全研究人员警告:GPT-4o系统存在严重安全漏洞

Administrator
2025-10-26 / 0 评论 / 0 点赞 / 1 阅读 / 0 字

📢 转载信息

原文链接:https://www.bbc.com/news/articles/cx2y037pg41o?at_medium=RSS&at_campaign=rss

原文作者:BBC News


一些安全研究人员表示,OpenAI的最新人工智能模型存在安全漏洞,可能允许用户通过特定的“越狱”提示词绕过系统的安全防护。

这些研究人员称,他们发现了一些新的方法,可以利用GPT-4o模型在处理语音和文本输入时的机制缺陷。

他们声称,通过这些方法,可以使模型做出一些本不应该做出的回应,例如泄露内部信息、生成有害内容或执行未经授权的操作。

其中一位研究人员表示,他们利用了模型在多模态输入(同时处理语音和文本)时的处理特性,构造了能够“欺骗”系统的提示词。

“这些漏洞并非底层代码错误,而是模型在处理复杂交互时,安全层级被绕过的结果,” 这位研究人员指出。

OpenAI在发布GPT-4o时,强调了其在安全性和负责任的AI开发方面的改进,但这些新的发现表明,在实际应用中,系统仍然容易受到对抗性攻击。

BBC已联系OpenAI寻求评论,但尚未收到回复。

安全专家呼吁,在模型广泛部署之前,需要对这类新的“越狱”技术进行更深入的测试和缓解措施的开发。

GPT-4o模型集成了文本、音频和视觉处理能力,被视为生成式AI领域的一个重大进步。然而,任何新模型的发布都会伴随着安全性的担忧,尤其是在面对恶意利用时。

研究人员表示,他们已经向OpenAI披露了这些发现,希望公司能够迅速修补这些漏洞,以保护用户免受潜在风险。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区