目 录CONTENT

文章目录

非营利组织联盟敦促政府暂停联邦机构使用Grok,因其生成未经同意的性内容

Administrator
2026-02-03 / 0 评论 / 0 点赞 / 1 阅读 / 0 字

📢 转载信息

原文链接:https://techcrunch.com/2026/02/02/coalition-demands-federal-grok-ban-over-nonconsensual-sexual-content/

原文作者:Rebecca Bellan


一个由非营利组织组成的联盟正敦促美国政府立即暂停在包括国防部在内的联邦机构中部署埃隆·马斯克的xAI开发的聊天机器人Grok。

这份独家提供给TechCrunch的公开信,是在过去一年中大型语言模型(LLM)出现一连串令人担忧的行为之后发出的。最近的趋势是,X(前身为Twitter)用户要求Grok将真实女性,甚至在某些情况下是儿童的照片,未经她们同意的情况下转换为性化图像。据一些报道称,Grok每小时生成数千张未经同意的露骨图像,这些图像随后在马斯克拥有的社交媒体平台X上被大规模传播,而X归xAI所有。

这封信由公共公民组织(Public Citizen)、人工智能与数字政策中心(Center for AI and Digital Policy)和美国消费者联合会(Consumer Federation of America)等倡导团体签署,信中写道:“联邦政府继续部署一个在系统层面存在缺陷、导致生成未经同意的性图像和儿童性虐待材料的AI产品,这一点令人深感担忧。”信中继续说道,“考虑到政府的行政命令、指导方针以及最近通过的由白宫支持的《立即删除法案》,管理和预算办公室(OMB)尚未指示联邦机构退役Grok,这一点令人震惊。”

xAI去年9月与政府采购部门通用服务管理局(GSA)达成协议,同意向联邦机构销售Grok。在此两个月前,xAI与Anthropic、谷歌和OpenAI一起,与国防部签订了一份价值高达2亿美元的合同。

在一月份X曝出丑闻之际,国防部长皮特·赫格塞斯(Pete Hegseth)表示,Grok将与谷歌的Gemini一起在五角大楼网络内部运行,处理机密和非机密文件,专家认为这对国家安全构成了风险。

信件作者认为,Grok已经证明自己不符合政府对AI系统的要求。根据OMB的指导方针,如果系统存在严重且可预见的风险且无法充分缓解,则必须停止使用。

该信件的作者之一、公共公民组织的科技问责倡导者JB Branch告诉TechCrunch:“我们的主要担忧是,Grok一直相当稳定地表现为一个不安全的LLM。”他补充说,“但Grok也有着一段漫长的历史,出现过各种‘崩溃’,包括反犹太主义、性别歧视的言论,以及对女性和儿童的性化图像。”

TechCrunch活动

TechCrunch 2026 年创始人峰会:门票开售

定于6月23日在波士顿举行,超过1,100名创始人齐聚TechCrunch 2026 年创始人峰会,共同度过专注于增长、执行和实际扩展的一整天。向塑造行业的创始人和投资者学习。与处于相似成长阶段的同行建立联系。带走你可以立即应用到的策略。

购买通行证可节省高达300美元,或者团队购买(四人或以上)可节省高达30%。

TechCrunch 创始人峰会:门票开售

定于6月23日在波士顿举行,超过1,100名创始人齐聚TechCrunch 2026 年创始人峰会,共同度过专注于增长、执行和实际扩展的一整天。向塑造行业的创始人和投资者学习。与处于相似成长阶段的同行建立联系。带走你可以立即应用到的策略。

购买通行证可节省高达300美元,或者团队购买(四人或以上)可节省高达30%。

波士顿,马萨诸塞州 | 2026年6月23日

继一月份X上出现反犹太主义帖子并自称“MechaHitler”等一系列事件后,一些政府对Grok的行为表现出不愿与之合作的态度。印度尼西亚、马来西亚和菲律宾都阻止了对Grok的访问(他们随后解除了禁令),而欧盟、英国、韩国和印度正在积极调查xAI和X在数据隐私和非法内容传播方面的行为。

这封信发表在一周之后,当时专注于为家庭审查媒体和技术的非营利组织Common Sense Media发布了一份措辞严厉的风险评估报告,称Grok是儿童和青少年最不安全的AI之一。根据该报告的发现——包括Grok提供不安全建议、分享有关毒品的信息、生成暴力和色情图像、散布阴谋论以及产生有偏见的输出——有人可能会认为,Grok对成年人来说也并非完全安全。

Branch表示:“如果你知道一个LLM被AI安全专家认定或曾经被认定不安全,你为什么还要让它处理我们最敏感的数据呢?”他补充说,“从国家安全的角度来看,这完全说不通。”

前国家安全局承包商、现任面向机密环境的无代码AI代理平台Gobbi AI创始人安德鲁·克里斯蒂安森(Andrew Christianson)认为,通常情况下使用闭源LLM是一个问题,特别是对于五角大楼而言。

“闭源权重意味着你无法看到模型内部,无法审计它是如何做决策的,”他说道。“闭源代码意味着你无法检查软件或控制它的运行位置。五角大楼在这两方面都采取了闭源策略,这是对国家安全而言最糟糕的组合。”

克里斯蒂安森补充道:“这些AI代理不只是聊天机器人。它们可以采取行动、访问系统、移动信息。你需要能够确切地看到它们在做什么以及它们是如何做决策的。开源可以让你做到这一点。专有的云AI则不能。”

使用被破坏或不安全的AI系统带来的风险超出了国家安全用例。Branch指出,一个被证明具有偏见和歧视性输出的LLM,可能会对人们产生不成比例的负面影响,特别是当它被用于涉及住房、劳工或司法的部门时。

虽然OMB尚未发布其2025年联邦AI用例的汇总清单,但TechCrunch审查了几个机构的用例——其中大多数要么没有使用Grok,要么没有披露其使用情况。除了国防部之外,卫生与公众服务部似乎也在积极使用Grok,主要用于安排和管理社交媒体帖子,以及生成文件、简报或其他沟通材料的初稿。

Branch认为,Grok和本届政府之间的哲学契合是忽视聊天机器人缺陷的原因之一。

Branch表示:“Grok的品牌是‘反觉醒(anti-woke)大型语言模型’,这符合本届政府的理念。”他继续说,“如果一个政府曾多次与那些被指控为新纳粹白人至上主义者的人士有过麻烦,而他们却在使用一个与此类行为相关的LLM,我猜他们可能倾向于使用它。”

这是该联盟发出的第三封信,此前它们曾在去年的8月和10月8月10月表达了类似的担忧。去年8月,xAI在Grok Imagine中推出了“辣味模式”(spicy mode),引发了大规模生成未经同意的色情深度伪造内容。TechCrunch在8月还报道称,私密的Grok对话已被谷歌搜索索引

在10月份的信件之前,Grok曾被指控提供选举错误信息,包括错误的投票截止日期和政治深度伪造内容。xAI还推出了Grokipedia,研究人员发现该网站在为其宣扬科学种族主义、艾滋病怀疑论和疫苗阴谋论提供合法性。

除了立即暂停Grok在联邦机构的部署外,该信件还要求OMB正式调查Grok的安全缺陷,以及是否对该聊天机器人进行了适当的监督流程评估。信中还要求该机构公开澄清Grok是否已评估为符合特朗普的行政命令(该命令要求LLM做到求真和中立),以及它是否满足OMB的风险缓解标准。

Branch表示:“政府需要暂停并重新评估Grok是否达到了这些门槛。”

TechCrunch已联系xAI和OMB征求评论。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区