📢 转载信息
原文作者:Tim Fernholz
埃隆·马斯克(Elon Musk)的公司xAI应该对其允许其AI模型生成可识别未成年人的性虐待图像的行为负责,三名匿名原告在周一向加州联邦法院提起的诉讼中提出了这一论点。
这三名原告希望提起一项集体诉讼,代表任何其未成年时期的真实照片被Grok篡改为色情内容的人。他们声称,xAI没有采取其他前沿实验室为防止其图像模型生成描绘真实人物的色情内容而使用的基本预防措施。
该案件名为“Jane Doe 1、未成年人Jane Doe 2和未成年人Jane Doe 3诉x.AI Corp.和x.AI LLC”,已在美国加州北区地方法院提起。
其他深度学习图像生成器采用各种技术来防止从普通照片中生成儿童色情内容。诉讼声称xAI并未采纳这些标准。
值得注意的是,如果一个模型允许从真实图像生成裸体或色情内容,那么几乎不可能阻止它生成描绘儿童的色情内容。马斯克公开宣传Grok生成色情图像和描绘真实人物穿着暴露服装的能力,在诉讼中被大量引用。
该公司未回应TechCrunch的置评请求。
一位原告Jane Doe 1,她高中返校节和年鉴的照片被Grok篡改,描绘她裸体。一位在Instagram上联系她的匿名爆料者告诉她,这些照片正在网上流传,并给她发送了一个Discord服务器的链接,其中包含她和她认识的学校其他未成年人的性化图像。
第二位原告Jane Doe 2,被刑事调查人员告知,第三方移动应用程序(该应用程序依赖于Grok模型)创建了她被篡改、性化的图像。第三位原告Jane Doe 3,也被刑事调查人员通知,他们在一名被捕嫌疑人的手机上发现了她被篡改的色情图像。原告的律师表示,由于第三方使用仍然需要xAI的代码和服务器,该公司应该承担责任。
所有三名原告(其中两人仍是未成年人)都表示,这些图像的传播以及这可能对她们的声誉和社交生活产生的影响,让她们感到极度痛苦。她们根据一系列旨在保护受剥削儿童和防止公司疏忽的法律,要求民事处罚。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区