📢 转载信息
原文链接:https://www.bbc.com/news/articles/cp9jxvx0zjmo?at_medium=RSS&at_campaign=rss
原文作者:BBC News
美国一家人工智能公司因涉嫌利用其技术非法生成和分发描绘儿童性虐待内容的深度伪造图像而受到调查。
国家失踪与受剥削儿童中心(NCMEC)的一名高管表示,他们“非常关注”与生成式人工智能相关的风险。
美国司法部(DoJ)正在调查总部位于加利福尼亚州的Stability AI公司。该公司以开发Stable Diffusion图像生成模型而闻名。
据称,该公司在2021年10月至2022年6月期间,使用其技术创建了数万张描绘儿童性虐待材料(CSAM)的合成图像。
据了解,这些图像是在该公司内部开发Stable Diffusion模型期间生成的,Stability AI当时正在努力改进其工具。
司法部在一份致国会的信中表示,他们正在对“Stability AI是否存在刑事责任”展开调查,特别是关于其是否参与了“制造和分发”此类材料。
NCMEC 首席执行官史蒂夫·马蒂斯(Steve Matthis)告诉BBC,此类技术的进步令人“深感不安”。
“这些工具正在被滥用,我们看到的结果令人震惊。这不是一个未来的问题,而是我们今天正在处理的问题。”
他补充说,NCMEC正在努力与科技公司合作,确保他们在构建工具时内置保护措施,以防止生成非法内容。
“我们正在与这些公司对话,试图说服他们,在设计这些工具时,必须将保护最脆弱的群体放在首位。”
Stability AI在一份声明中表示,它致力于“负责任地开发人工智能”,并且“积极与执法部门合作,遏制其技术被滥用”。
声明中说:“我们采取了具体措施,包括制定严格的使用政策、实施内容过滤器以及与行业伙伴合作,以识别和打击滥用行为。”
声明还指出,公司“采取零容忍政策”反对任何人利用其技术制造或传播非法内容,并“将在发现此类行为时立即采取行动”。
Stability AI还声称,当他们发现内部测试中存在不当内容时,已经“立即采取措施”来阻止这种情况的发生,并且他们已经将这些发现报告给了有关当局。
据称,在Stability AI内部的一份报告中,提到了该公司在开发过程中发现的有关合成CSAM的“数万张”图像。
这份内部文件显示,该公司意识到这些材料可能被用来“训练或测试模型”。
联邦调查局(FBI)的一位发言人表示,他们“将继续调查任何涉及网络犯罪和利用技术的非法活动”。
美国参议员理查德·布卢门撒尔(Richard Blumenthal)和其他几位立法者也在对人工智能公司进行审查,他们担心这些公司在应对新技术风险方面做得不够。
在给联邦贸易委员会(FTC)的一封信中,这些参议员敦促监管机构对人工智能公司如何处理用户安全和潜在风险进行调查。
信中写道:“我们担心,许多人工智能公司,特别是那些在产品发布前进行内部测试的公司,可能没有为应对生成式人工智能带来的独特风险做好充分准备。”
NCMEC的数据显示,2023年,该中心收到了超过3500万起关于CSAM的报告,比前一年增加了近20%。
其中,约有170万份报告涉及“合成”或“深度伪造”的图像和视频,尽管许多案件中很难确定内容是合成的还是真实的。
马蒂斯先生强调,尽管AI技术带来了惊人的潜力,但其负责任的开发必须是重中之重。
“技术的发展速度非常快,立法和执法往往跟不上。这就是为什么我们必须与这些公司进行持续的对话,确保他们在开发下一个大事件时,考虑到对最脆弱群体的潜在影响。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区