目 录CONTENT

文章目录

谷歌前CEO施密特发出严厉警告:AI模型极易被黑客利用,存在重大安全风险

Administrator
2025-10-15 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.ithome.com/0/888/368.htm

原文作者:IT之家


前谷歌CEO施密特敲响AI安全警钟:模型易被黑客攻击,风险不容忽视

根据美国CNBC 10月9日的报道,谷歌前首席执行官(CEO)埃里克・施密特(Eric Schmidt)对人工智能(AI)技术的快速发展发出了严峻的警告:AI存在不可忽视的危险,并且极易被黑客利用。

AI面临的扩散与滥用风险

施密特直言不讳地指出AI扩散的可能性:“AI可能出现扩散问题吗?绝对可能。”他担忧技术最终会落入不法分子手中,并被用于恶意目的。

更令人担忧的是AI模型本身的安全漏洞:“有证据显示,无论是封闭还是开源的模型,都可能被黑客攻击并移除安全防护。在训练过程中,AI学到了很多技能,其中最糟糕的情况是,它可能学会如何杀人。”

施密特表示,虽然所有主要科技公司都在努力确保模型无法回答危险问题,并且出于正确理由实施了安全措施,但这些模型仍有被逆向工程的风险,其他类似的风险也大量存在。

常见的AI攻击手段:提示注入与越狱

AI系统目前正面临着多种攻击方式的威胁,其中最常见的包括提示注入(Prompt Injection)和越狱(Jailbreaking)

  • 提示注入攻击: 黑客通过在用户输入或外部数据(如网页、文档)中隐藏恶意指令,以欺骗AI执行非授权操作,例如泄露敏感数据或执行有害命令。
  • 越狱: 通过特定指令操控AI的回答,使其绕过既定的安全规则,从而生成受限或危险的内容

缺乏有效的控制机制与对未来的乐观展望

施密特指出,目前尚无完善的“非扩散机制”来有效控制AI带来的风险。尽管警告严峻,但施密特对AI的整体前景依然保持乐观,他认为这项技术的真正价值远未被充分发掘。

他回顾了与亨利・基辛格合著的观点,即一种“受控的外来智能”的出现对人类具有重大意义,因为它挑战了人类在食物链顶端的传统地位。他认为这一观点正在被AI的发展所验证,这些系统的能力将在未来超越人类的成长速度。

施密特最后总结道:“GPT系列催生了ChatGPT热潮,两个月吸引了一亿用户,这展现了AI惊人的力量。我认为AI被低估,而非被高估,我期待在未来五到十年内证明我的观点是正确的。”


广告声明: 文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

青云聚合API官网https://api.qingyuntop.top

支持全球最新300+模型:https://api.qingyuntop.top/pricing

详细的调用教程及文档:https://api.qingyuntop.top/about

0

评论区