目 录CONTENT

文章目录

“去衣化”深度伪造技术正变得愈发阴暗和危险

Administrator
2026-01-27 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/deepfake-nudify-technology-is-getting-darker-and-more-dangerous/

原文作者:Matt Burgess


打开一个提供色情深度伪造(deepfake)的网站,你就会看到一个充满恐惧的菜单。只需点击几下,它就能将一张照片转换成一个八秒钟的露骨视频片段,将女性置于看起来极其真实的色情场景中。网站上的文字写着:“利用我们先进的人工智能技术,将任何照片转换成裸照。”

潜在的滥用方式非常广泛。在该网站提供的65个视频“模板”中,有一系列“去衣”视频,其中被描绘的女性会脱掉衣服——但也有命名为“强奸机器深喉”和各种“精液”视频的露骨场景。生成每个视频都需要支付少量费用;添加AI生成的音频则需要更多费用。

WIRED没有透露该网站的名称,以限制其进一步曝光。该网站包含警告,称人们只应上传他们有权使用AI转换的照片。但尚不清楚是否有任何检查来强制执行此规定。

埃隆·马斯克(Elon Musk)旗下公司创建的聊天机器人Grok已被用于创建数千张未经同意的比基尼图像或“去衣化”图像——这进一步将数字性骚扰的过程工业化和常态化。但这只是最显而易见的,而且远非最露骨的。多年来,一个由数十个网站、机器人和应用程序组成的深度伪造生态系统一直在不断发展,使得自动化基于图像的性虐待(包括创建儿童色情材料(CSAM))变得比以往任何时候都容易。这个“去衣化”生态系统及其对女性和女童造成的伤害,可能比许多人想象的要复杂。

“这不再是粗糙的合成脱衣了,”深度伪造专家亨利·阿德(Henry Ajder)说,他追踪这项技术已经超过半个世纪。“我们谈论的是生成内容的真实度更高,而且功能范围更广。”他表示,这些服务加起来每年可能创造数百万美元的收入。“这是一种社会祸害,也是我们正在目睹的这场人工智能革命和合成媒体革命中最黑暗、最糟糕的部分之一。”


在过去一年中,WIRED追踪了多家色情深度伪造服务如何引入新功能并迅速扩展以提供有害视频创作。图像到视频模型现在通常只需要一张照片就能生成短片。WIRED对50多个“深度伪造”网站(每月可能获得数百万次浏览)的审查显示,几乎所有这些网站现在都提供露骨、高质量的视频生成功能,并且通常列出了女性可能被描绘进去的几十种色情场景。


与此同时,在Telegram上,数十个色情深度伪造频道和机器人定期发布新功能和软件更新,例如不同的性姿势和体位。例如,去年六月,一个深度伪造服务推广了一个“性爱模式”,并伴随信息宣传:“尝试不同的衣服、你最喜欢的姿势、年龄和其他设置。”另一个发布消息称,将很快有“更多款式”的图像和视频,用户可以使用自定义提示词来“使用提示词准确地创建你所设想的内容”。


独立分析师圣地亚哥·拉卡托斯(Santiago Lakatos)说:“这不仅仅是‘你想让某人脱掉衣服’。这就像是‘这里有所有这些不同的幻想版本。’这是不同的姿势。这是不同的性爱姿势。”拉卡托斯与媒体机构Indicator一起研究了“去衣化”服务如何经常利用大型科技公司的基础设施,并且在此过程中可能赚了大钱。“还有一些版本可以让你让某人[看起来]怀孕,”拉卡托斯说。

WIRED的审查发现,在Telegram上,39个深度伪造创建机器人和频道有超过140万个注册账户。在WIRED向Telegram询问这些服务后,该公司删除了至少32个深度伪造工具。Telegram发言人表示:“非自愿色情内容——包括深度伪造及其创建工具——严格违反了Telegram的服务条款”,并补充说,一旦检测到违反规定的内容,就会将其删除,去年该公司删除了4400万条违反其政策的内容。


拉卡托斯说,近年来,多个大型“深度伪造”网站巩固了其市场地位,现在向其他创建非自愿图像和视频生成器的人提供API,使得更多服务得以激增。“他们正在通过收购其他不同的网站或去衣应用程序来实现整合。他们正在添加功能,使他们能够成为基础设施提供商。”

所谓的色情深度伪造最早出现在2017年底,当时需要用户具备技术知识才能创建色情图像或视频。过去三年生成式人工智能系统的广泛进步,包括复杂的开源照片和视频生成器的可用性,使得这项技术更容易接触、更逼真、更易于使用。

用于传播虚假信息和误导信息的政治人物和全球冲突的通用深度伪造视频已被创建。然而,色情深度伪造持续对妇女和女童造成广泛伤害。与此同时,保护人们的法律实施缓慢或根本没有出台

麻省理工学院人工智能安全和治理研究员斯蒂芬·卡斯珀(Stephen Casper)记录了深度伪造视频滥用和非自愿亲密图像生成的增加情况,他说:“这个生态系统是建立在开源模型之上的。”卡斯珀说:“很多时候,只是一个开源模型被用来开发一个用户使用的应用程序。”

非自愿亲密图像(NCII)的受害者和幸存者,包括深度伪造和其他未经同意分享的媒体,几乎总是女性。虚假图像和未经同意的视频造成巨大伤害,包括骚扰羞辱以及感觉“被非人化”。近年来,露骨的深度伪造被用来虐待政治人物、名人以及社交媒体影响者。但它们也被男性用来骚扰同事朋友,以及被学校里的男孩用来创建他们同学的非自愿亲密图像

新学院应用心理学副教授兼The SexTech Lab创始人帕尼·法尔维德(Pani Farvid)说:“通常,受害者或受影响的人是妇女、儿童或其他类型的性别或性少数群体。”“我们作为一个全球社会,对于任何形式的针对女性的暴力行为都不够重视。”

法尔维德补充说:“存在一系列这些不同的行为,其中一些[施暴者]更具机会主义,看不到他们造成的伤害,这取决于AI工具呈现的方式。”他还表示,一些AI伴侣服务可能会以带有性别倾向的服务来针对个人。“对于其他人来说,这是因为他们身处虐待团伙或虐待儿童团伙中,或者他们是已经从事其他形式的暴力、性别暴力或性暴力的人。”

一项由研究员阿什·弗林(Asher Flynn)领导的澳大利亚研究访谈了25名深度伪造滥用者和受害者。该研究得出结论,三个因素——日益易用的深度伪造工具、创建非自愿色情图片的常态化以及对所造成伤害的轻描淡写——可能会影响对这个仍在增长的问题的预防和应对。研究发现,与使用Grok在X(推特)上创建的非自愿色情图片广泛的公开分享不同,露骨的深度伪造更有可能被私下分享给受害者或其朋友和家人。“我只是简单地使用了个人WhatsApp群组,”一名施暴者告诉研究人员。“其中一些群组有多达50人。”


这项学术研究发现了四种主要的深度伪造滥用动机——在他们采访的10名施暴者中,有8名是男性。这些动机包括“色情报复”(sextortion)、对他人造成伤害、从同伴那里获得强化或联系,以及对工具及其功能的好奇心

WIRED采访的多位专家表示,许多开发深度伪造工具的社区对他们造成的伤害持有一种“轻率”或随意的态度。“存在一种对使用该工具创建NCII或甚至获取NCII的某种平庸倾向,这令人担忧,”人权组织Witness的政策和倡导经理布鲁娜·马丁斯·多斯桑托斯(Bruna Martins dos Santos)说。

对于一些创建深度伪造的施暴者来说,这项技术关乎权力和控制。一名施暴者告诉弗林和参与该研究的其他研究人员:“你只是想看看有什么可能性。”“然后你会有一种‘神一般’的兴奋感,因为你看到自己有能力创造出这样的东西。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区