目 录CONTENT

文章目录

人们正在使用Sora 2制作令人不安的AI生成儿童色情视频

Administrator
2025-12-22 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/people-are-using-sora-2-to-make-child-fetish-content/

原文作者:Laura Holliday


在 10 月 7 日,一个名为 @fujitiva48 的 TikTok 账户在其最新视频旁提出了一个挑衅性的问题。“你们对这个新的小孩子玩具有什么看法?”他们问道,收到了 2000 多名观众的回复,这些观众无意中看到了一个似乎是电视广告的模仿作品。“嘿,这可不好笑,”一个人写道。“做这个的人应该接受调查。”

很容易看出为什么这个视频会引起如此强烈的反应。这个虚假的广告以一个拿着玩具的逼真小女孩开始——玩具是粉色的,闪闪发光,手柄上装饰着一只黄蜂。我们被告知那是一支笔,小女孩和另外两个孩子在纸上乱涂乱画,一个成年男性的画外音在旁叙述。但很明显,这个物品的花朵设计、发出嗡嗡声的能力,以及它的名字——“Vibro Rose”(振动玫瑰)——听起来和看起来都非常像一个性玩具。TikTok 上的“添加你的”(add yours)按钮——鼓励人们在自己的动态中分享视频——上面写着“我正在用我的玫瑰玩具”,消除了哪怕一丝一毫的疑虑。(WIRED 联系了 @fujitiva48 账户请求评论,但未收到回复。)

这段不雅的片段是使用 Sora 2 制作的,这是 OpenAI 最新的视频生成器,最初于 9 月 30 日在美国通过邀请制发布。在短短一周内,像“Vibro Rose”片段这样的视频就从 Sora 迁移到了 TikTok 的“为你推荐”页面上。一些其他的虚假广告甚至更露骨,WIRED 发现有几个账户发布了类似的 Sora 2 生成视频,内容是带有玫瑰或蘑菇形状的水上玩具以及将“粘稠的牛奶”、“白色泡沫”或“粘液”喷到逼真儿童图像上的蛋糕装饰器。

如果这些是真实的儿童而不是数字合成体,上述内容在许多国家都可能成为被调查的理由。但是,关于涉及未成年人的 AI 生成恋物癖内容的法律仍然模糊不清。英国互联网观察基金会(Internet Watch Foundation)发布的 2025 年新数据显示,AI 生成的儿童性虐待材料(CSAM)的报告数量在一年内翻了一番,从 2024 年 1 月至 10 月的 199 起增加到 2025 年同期(1 月至 10 月)的 426 起。这些内容中有 56% 属于 A 类——英国最严重的类别,涉及插入式性行为、与动物的性行为或施虐行为。IWF 追踪到的非法 AI 图像中,94% 是女孩的图像。(Sora 目前似乎没有生成任何 A 类内容。)

IWF 首席执行官 Kerry Smith 告诉 WIRED:“我们经常看到真实儿童的肖像被商品化,用于制作裸体或色情图像,而且绝大多数情况下,我们看到 AI 被用来制作女孩的图像。这是女孩在网上受到攻击的又一种方式。”

有害的 AI 生成材料的涌入促使英国在其《犯罪和警务法案》中引入了一项 新修正案,该修正案将允许“授权测试员”检查人工智能工具是否无法生成 CSAM。正如 BBC 所报道的,这项修正案将确保模型在特定图像方面设有保护措施,特别是极端色情内容和非自愿亲密图像。在美国,45 个州已经实施了法律来 将 AI 生成的 CSAM 定为犯罪,其中大多数是在过去两年内,随着 AI 生成器的不断发展。

Sora 2 的创建者 OpenAI 已经实施了措施,以防止年轻人被他们的面孔贴到色情 深度伪造上。该应用中用户录制自己肖像以嵌入到生成视频中的功能——以前称为 Cameo,但现已 暂时更名——基于同意原则运行,并且可以随时撤销。还有一个规则确保成年人资料不能向青少年发送信息。该应用完全禁止 CSAM,OpenAI 的政策规定其平台“绝不能用于剥削、危害或性化任何 18 岁以下的任何人”,OpenAI 会将任何儿童性虐待材料和危害儿童的行为报告给国家失踪和受剥削儿童中心。

但像玫瑰玩具这样的情况又如何呢?这些视频的信号足以让 TikTok 评论者、YouTuber 和内容创作者就其危险性展开 严肃的讨论,但创作者似乎可以通过绕过 OpenAI 的护栏来制作它们。虽然它们不属于硬核色情或针对真实儿童的深度伪造,但当与引导性陈述一起上传时,它们显示出明显的旨在吸引掠食者的意图。

创作者归为同一类别的其他片段在性化和评论之间摇摆不定。针对被召回玩具的虚假广告,例如“Epstein’s Island Getaway”(爱泼斯坦的岛屿度假)和“Diddy’s Mansion Party”(迪迪的豪宅派对),其中 AI 生成的儿童与老年男性、年轻女性和一个婴儿油喷泉的模型一起玩耍,也受到了审查。其中一个名为“Harv’s couch”(哈维的沙发)的视频——似乎是在指代被定罪的性犯罪者哈维·韦恩斯坦——展示了“一个真实的锁定门、一个柔软的沙发和 3 个充满希望的女演员玩偶”,一个儿童的声音问道:“这是成名的方式吗?”

尽管这些片段和其他展示 9/11 和戴安娜王妃之死模仿场景的片段非常不恰当,但这表明视频的创作者的动机可能更多是想成为“边缘人”(edgelord),而不是其他什么。然而,它们通常出现在同一个汇编账户上,导致那些寻找黑色笑话的人可能会意外地遇到更可疑的内容。

淫秽的虚假皮克斯预告片,例如关于“2 Girls One Cup”的概念,也属于此类,但有些内容通过展示年龄模糊的年轻女性角色的动画而进入了更阴暗的领域。其他内容包括一个名为“Incredible Gassy”(爆炸气)的角色——一个关于“爆炸粘液”的关于“不可思议先生”的充满胀气、肥胖的模仿版本——在一个虚假的玩具广告(在这个版本中称为“Incredible Leaky”)中,“从他的英雄部件中喷出粘液”。“Incredible Gassy”这个角色起源于 2021 年的一次 NSFW Patreon 委托,近几个月来已成为一个模因,用以表示和评论自该应用发布以来在 Sora 2 和更广泛的互联网上兴起的 通货膨胀、怀孕、吞食和肥胖恋物癖内容 的巨大浪潮。这些视频也经常包含 AI 生成的未成年人。

上个月,英国 YouTuber D0l1face3 提请注意了另一个片段,这次是使用 Veo 制作的,其中一名教练在更衣室里检查一群超重的男孩,抚摸他们的肚子并称赞他们增重。虽然内容没有明确的色情意味,但在她看来,当看到该视频的评论区时,其意图就变得清晰了:有几个账户分享了请求,要求人们在 Telegram 上添加他们,而执法部门声称 Telegram 是 恋童癖网络的一个中心。WIRED 发现,该账户在记录时仍然活跃,同时也发现了其他类似的、似乎在微妙迎合掠食者受众的关于超重小男孩的视频,而且这些视频都没有被标记为违反 TikTok 的政策。

谷歌发言人告诉 WIRED,该公司对人工智能生成未成年人有明确的政策。关于超重男孩的视频,该发言人表示,评论和将视频发布到其他平台的意图才是令人担忧的。

正是这种背景细微差别——构成了 CSAM 运作方式的很大一部分——是 Sora 2 等应用最终无法监管的。

非营利组织 自由言论联盟(Free Speech Coalition)的公共政策总监 Mike Stabile 在成人行业拥有 20 多年的经验,了解成人网站的运营和内容审核方式。他认为,OpenAI 和类似公司必须在其审核实践中实施同等程度的细微差别,才能完全确保不含 CSAM 和涉及儿童的恋物癖内容流入平台。这可能包括禁止或限制可能与恋物癖内容相关的某些词语,并通过更多样化和培训来改进审核团队。

“我们已经在 Facebook 等平台上看到了这种斗争。他们如何区分父母分享孩子在游泳池或浴缸里玩耍的照片,与分享旨在成为儿童性虐待材料的人有什么区别?”Stabile 告诉 WIRED。

“任何时候你处理怪癖或恋物癖时,都会有一些不熟悉的人会错过,”他说。

在 WIRED 请求置评后,OpenAI 表示已封禁了几个创建类似振动玫瑰玩具视频的账户。OpenAI 发言人 Niko Felix 告诉 WIRED:“OpenAI 严格禁止使用我们的模型创建或分发剥削或伤害儿童的内容。我们设计我们的系统以拒绝这些请求,寻找规避我们政策的尝试,并在发生违规行为时采取行动。”

WIRED 还就使用 Sora 2 在平台上涌现的大量恋物癖材料联系了 TikTok,标记了 30 多个不适当的玩具广告、通货膨胀和肥胖恋物癖内容的实例。其中许多,包括玫瑰玩具广告,已被删除,但在报道时,其他内容,包括其他虚假玩具广告和“Incredible Leaky”模型,仍在网上存在。

TikTok 发言人表示:“我们已经删除了违反 TikTok 严格未成年人安全政策的、由其他人工智能平台创建的内容的视频,并封禁了上传这些内容的账户。”

同样,IWF 敦促平台在初始设计中考虑这些保护措施,并将它们放在首位——从一开始就防止有害内容的产生。

Smith 告诉 WIRED:“我们希望看到‘安全设计’的产品和平台,并鼓励人工智能公司尽其所能,确保他们的产品不会被滥用于创建儿童性虐待图像。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区