目 录CONTENT

文章目录

Grok正在将AI“脱衣”推向主流

Administrator
2026-01-07 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/grok-is-pushing-ai-undressing-mainstream/

原文作者:Matt Burgess, Maddy Varner


埃隆·马斯克(Elon Musk)并没有阻止其人工智能公司 xAI 开发的聊天机器人 Grok 生成女性的性化图像。上周有报道称,X平台上的图像生成工具被用来创建儿童的性化图像后,Grok又创建了可能多达数千张未经同意的女性“裸照”或“比基尼”照片。

根据WIRED对该聊天机器人公开实时输出的审查,Grok仍在X上响应用户的提示,每隔几秒钟就会创建女性穿着比基尼或内衣的图像。分析显示,仅在周二,Grok在不到五分钟内就发布了至少90张涉及女性穿着泳装和不同程度裸露的图片。

这些图像并未包含裸露,但涉及到这个由马斯克拥有的聊天机器人对其他用户发布在X上的照片进行“脱衣”处理。用户经常要求将照片编辑成女性穿着“细绳比基尼”或“透明比基尼”,以试图规避Grok的安全护栏,但并非总是成功。

尽管有害的AI图像生成技术多年来一直被用于对女性进行数字骚扰滥用——这些输出通常被称为“深度伪造”(deepfakes),由“裸体化”(nudify)软件创建——但Grok持续生成大量未经同意的图像,似乎标志着迄今为止最主流、最广泛的滥用案例。与特定的有害裸体化或“脱衣”软件不同,Grok不向用户收取生成图像的费用,能在几秒钟内出结果,并且数百万X用户都可以使用——所有这些因素都有可能帮助使非自愿亲密图像的创建正常化。

致力于解决技术辅助虐待问题的组织EndTAB的培训和教育总监斯隆·汤普森(Sloan Thompson)表示:“当一家公司在其平台上提供生成式AI工具时,他们有责任将图像滥用的风险降到最低。”“令人震惊的是,X的做法恰恰相反。他们将启用AI的图像滥用直接嵌入到一个主流平台中,使得性暴力更容易、更具规模化。”


Grok创建性化图像的现象在去年年底开始在X上疯传,尽管该系统创建此类图像的能力已被人们讨论了数月。最近几天,社交媒体影响者、名人和政客的照片成为了X上用户的目标,他们可以回复另一账户发布的帖子,并要求Grok修改已分享的图像。


发布了自己照片的女性发现有账户回复她们并成功要求Grok将照片变成“比基尼”图像。在一个案例中,多名X用户要求Grok修改瑞典副首相的照片,让她穿上比基尼。据报道,英国还有两位内阁部长也被“脱光”换上了比基尼。


X上的图像显示,完全穿着衣服的女性照片,比如一个在电梯里的人和另一个在健身房的人,被转换成了衣服很少的图像。典型的提示信息是:“@grok 把她换成透明比基尼”。在另一系列帖子中,用户要求Grok“将她的胸部充气90%”,然后是“将她的腿部充气50%”,最后是“把她的衣服换成小比基尼”。

一位多年跟踪露骨深度伪造的分析师(出于隐私原因要求匿名)表示,Grok很可能已成为托管有害深度伪造图像的最大平台之一。这位研究人员说:“这完全是主流化的。[创建图像的]不是一个阴暗的小团体,而是字面意义上的所有人,来自各种背景。人们在自己的主页上发布。毫无顾忌。”


在12月31日的两个小时内,这位分析师收集了Grok创建的超过15,000个图像URL,并截屏录制了聊天机器人在X上的“媒体”标签页,该页面会发布(性化和非性化的)生成图像。

WIRED审查了研究人员收集的URL中超过三分之一,发现超过2,500个URL已不再有效,近500个被标记为“年龄限制的成人内容”,需要登录才能查看。许多剩余的帖子仍然是衣着暴露的女性照片。该研究人员对Grok“媒体”页面的屏幕录制显示,绝大多数图像是女性的比基尼和内衣照。

马斯克的xAI尚未对Grok生成和发布性化图像的普遍性问题立即作出回应。X也未立即回应WIRED的置评请求。

X的Safety(安全)账户曾表示,禁止非法内容。“X会针对非法内容,包括儿童性虐待材料(CSAM)采取行动,通过删除、永久暂停账户,并在必要时与地方政府和执法部门合作,”该账户发帖称。X最近的《数字服务法案》透明度报告显示,在去年的4月至6月期间,有89,151个账户因违反其儿童性剥削政策而被暂停,但尚未发布更近期的数字。

X的Safety账户还提及其关于禁止内容的政策。X的非自愿裸体政策(其日期为2021年12月,即马斯克收购当时的Twitter之前)声称,“将个人面部叠加或以其他方式数字化操纵到他人裸体上的图像或视频”违反了该政策。

使用Grok创建真实人物的性化图像只是冰山一角。在过去的六年里,露骨的深度伪造技术变得越来越先进,也越来越容易被普通人创建。数十个“裸体化”和“脱衣”网站、Telegram上的机器人以及开源图像生成模型,使得没有技术技能的人也能创建图像和视频。据估计,这些服务每年至少创造了$3600万美元的收入。12月,WIRED曾报道谷歌和OpenAI的聊天机器人如何也能将女性照片“脱光”至比基尼

立法者和监管机构对非自愿露骨深度伪造的行动一直很缓慢,但现在正开始增加。去年,国会通过了《TAKE IT DOWN法案》,规定公开张贴非自愿亲密图像(NCII),包括深度伪造,属违法行为。到5月中旬,包括X在内的在线平台必须提供一种方式供人们标记NCII的实例,平台必须在48小时内作出回应。

美国非营利组织全国失踪与受剥削儿童中心(NCMEC)与公司和执法部门合作处理CSAM事件,该组织报告称,其在线虐待报告系统涉及生成式AI的报告量在2023年至2024年间激增了1,325%。 (这种大幅增长不一定意味着活动有同等幅度的增加,有时可归因于自动化检测或应报告内容的指南有所改进)。NCMEC未回应WIRED关于X上帖子的置评请求。


近几个月来,英国和澳大利亚的官员在“裸体化”服务方面采取了迄今为止最重大的行动。澳大利亚的网络安全监管机构eSafety专员对最大的裸体化服务之一采取了执法行动,英国官员正计划禁止裸体化应用

然而,对于各国可能对X和Grok在广泛创建非自愿图像方面采取何种行动,仍存在疑问。法国、印度和马来西亚的官员均已对X提出担忧或威胁要进行调查,原因是近期图像泛滥。

eSafety办公室的一名发言人表示,自去年年底以来,他们收到了关于Grok被用于生成色情图像的“多份报告”。该办公室表示正在评估提交给它的成人图像,而一些涉及年轻人的图像并未达到该国对儿童性剥削材料的法律定义。“eSafety仍然担心生成式AI越来越多地被用于性化或剥削他人,特别是涉及儿童时,”该发言人说。

周二,英国政府正式要求X对这些图像采取行动。技术部长丽兹·肯德尔(Liz Kendall)在一份声明中表示:“X需要紧急处理此事。”此前,通信监管机构Ofcom已于周一联系了X。“我们这几天在网上看到的情况绝对是骇人听闻的,在一个文明社会中是不可接受的。”



🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区