目 录CONTENT

文章目录

硅谷高管指责AI安全倡导者:是自利还是幕后操纵?

Administrator
2025-10-18 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://techcrunch.com/2025/10/17/silicon-valley-spooks-the-ai-safety-advocates/

原文作者:Maxwell Zeff (TechCrunch)


包括白宫AI与加密货币沙皇David Sacks和OpenAI首席战略官Jason Kwon在内的硅谷领导者,本周因其对促进AI安全团体的评论而在网上引起了轰动。在不同的场合,他们声称某些AI安全的倡导者并不像他们表现出的那样有德行,而是在为自己或幕后的亿万富翁傀儡主人谋取利益。

与TechCrunch交谈过的AI安全组织表示,来自Sacks和OpenAI的指控是硅谷恐吓其批评者的最新尝试,但绝非首次。2024年,一些风险投资公司散布谣言称,一项加州AI安全法案SB 1047会使初创公司创始人入狱。布鲁金斯学会将此谣言标记为该法案众多“失实陈述”之一,但州长Gavin Newsom最终还是否决了该法案。


无论Sacks和OpenAI是否有意恐吓批评者,他们的举动已经足以吓到几位AI安全倡导者。上周TechCrunch联系的许多非营利组织领导者都要求匿名发言,以保护其组织免受报复。

这场争议凸显了硅谷在负责任地构建AI与将其打造成大规模消费产品之间日益紧张的关系——这是我的同事Kirsten Korosec、Anthony Ha和我本周在Equity播客中深入探讨的主题。我们还深入探讨了加州通过的一项旨在监管聊天机器人(chatbot)的新AI安全法,以及OpenAI在ChatGPT中处理色情内容的做法。

周二,Sacks在X上发帖文,声称Anthropic——该公司对AI可能导致失业、网络攻击和对社会造成灾难性危害表示担忧——不过是在散布恐慌,以推动通过对其有利并将小公司淹没在文书工作中的法律。Anthropic是唯一一家支持加州参议院第53号法案(SB 53)的主要AI实验室,该法案为大型AI公司设定了安全报告要求,并已于上个月签署成为法律。

Sacks是在回应Anthropic联合创始人Jack Clark关于他对AI的担忧的病毒式传播的文章时发表此番言论的。Clark几周前在伯克利的Curve AI安全会议上发表了该文章。坐在观众席中,这听起来确实像是一位技术专家对其产品所存的真实保留意见,但Sacks不这么认为。

Anthropic正在实施一项基于散布恐慌的复杂监管俘获战略。它主要应对正在损害初创企业生态系统的州监管狂潮负责。 https://t.co/C5RuJbVi4P

— David Sacks (@DavidSacks) October 14, 2025

Sacks称Anthropic正在运行一项“复杂的监管俘获战略”,但值得注意的是,一个真正复杂的战略可能不会涉及与联邦政府为敌。在X上的后续帖子中,Sacks指出Anthropic“一直将自己定位为特朗普政府的敌人”。

Techcrunch event

DISRUPT FLASH SALE: Save up to $624 until Oct 17

Netflix, Microsoft, Box, Phia, a16z, ElevenLabs, Wayve, Hugging Face, Elad Gil, Vinod Khosla — some of the 250+ heavy hitters leading 200+ sessions designed to deliver the insights that fuel startup growth and sharpen your edge. Grab your ticket before Oct 17 to save up to $624.

DISRUPT FLASH SALE: Save up to $624 until Oct 17

Netflix, Microsoft, Box, Phia, a16z, ElevenLabs, Wayve, Hugging Face, Elad Gil, Vinod Khosla — some of the 250+ heavy hitters leading 200+ sessions designed to deliver the insights that fuel startup growth and sharpen your edge. Grab your ticket before Oct 17 to save up to $624.

San Francisco | October 27-29, 2025

本周,OpenAI的首席战略官Jason Kwon也在X上发帖文,解释了公司为何向AI安全非营利组织(如倡导负责任AI政策的Encode)发出传票。(传票是要求提供文件或证词的法律命令)。Kwon表示,在埃隆·马斯克(Elon Musk)因担心ChatGPT的制造者偏离了其非营利使命而起诉OpenAI后,OpenAI发现一些组织也反对其重组的举动很可疑。Encode对马斯克的诉讼提交了amicus(法庭之友)简报,其他非营利组织也公开反对OpenAI的重组。

这件事背后还有很多故事。

众所周知,我们正在积极应对埃隆的诉讼,他正试图为了自己的经济利益损害OpenAI。

Encode,其中@_NathanCalvin 担任总法律顾问的组织,是其中之一… https://t.co/DiBJmEwtE4

— Jason Kwon (@jasonkwon) October 10, 2025

Kwon说:“这引发了关于谁在资助他们以及是否存在任何协调的透明度问题。”

NBC新闻本周报道称,OpenAI向Encode和其他六个非营利组织发出了广泛的传票,这些组织批评了该公司,要求提供与OpenAI两位最大反对者——马斯克和Meta首席执行官马克·扎克伯格——相关的通信记录。OpenAI还要求Encode提供与其支持SB 53相关的通信记录。


一位著名的AI安全领袖告诉TechCrunch,OpenAI的政府事务团队与其研究组织之间存在日益分裂的现象。虽然OpenAI的安全研究人员经常发布报告披露AI系统的风险,但OpenAI的政策部门却游说反对SB 53,声称他们更希望在联邦层面有统一的规则。

OpenAI的使命一致性负责人Joshua Achiam本周在X上发帖,谈论了公司向非营利组织发出传票的决定。

Achiam说:“在我可能危及我整个职业生涯的时刻,我要说:这看起来不太妙。”

AI安全非营利组织Secure AI联盟(Alliance for Secure AI)的首席执行官Brendan Steinhauser(该联盟尚未收到OpenAI的传票)告诉TechCrunch,OpenAI似乎确信其批评者是马斯克领导的阴谋的一部分。然而,他认为事实并非如此,并且AI安全界的大多数人对xAI的安全实践——或者说缺乏实践——持批评态度,这一点也受到了批评

Steinhauser说:“OpenAI此举的目的是为了让批评者噤声,恐吓他们,并阻止其他非营利组织做同样的事情。” 他补充道:“对于Sacks来说,我认为他担心的是[AI安全]运动正在发展,人们希望让这些公司承担责任。”

白宫高级AI政策顾问、前a16z(Andreessen Horowitz)普通合伙人Sriram Krishnan本周也通过自己的社交媒体帖子参与了这场对话,他指责AI安全倡导者脱离现实。他敦促AI安全组织与“在现实世界中使用、销售、采用AI的家庭和组织中的人们”进行交谈。

皮尤研究中心最近的一项研究发现,大约一半的美国人对AI“比兴奋更担心”,但不清楚他们具体担心的是什么。另一项最近的研究更深入地发现,美国选民更关心失业和深度伪造(deepfakes),而不是AI安全运动主要关注的灾难性风险。

解决这些安全问题可能会以牺牲AI行业的快速增长为代价——这是硅谷许多人担心的一种权衡。由于AI投资支撑着美国经济的很大一部分,对过度监管的恐惧是可以理解的。


但在经历了多年的不受监管的AI进步之后,AI安全运动似乎在进入2026年时获得了真正的动力。硅谷试图对抗安全导向型团体的反击,可能表明这些团体正在发挥作用。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区