📢 转载信息
原文链接:https://www.ithome.com/0/920/237.htm
原文作者:清源
IT之家 2 月 8 日消息,据中央广播电视总台中国之声今日报道,临近春节,短视频平台上掀起一种别样的“拜年方式”。熟悉的影视巨星、体坛健将、商界名人,甚至历史人物在屏幕里“拱手作揖”并说着吉祥话。数字经济学者刘兴亮表示,这些视频的核心是当前人工智能最前沿的 深度合成技术,包括两个关键部分:视觉合成、语音合成。
其中,视觉合成即“AI 换脸”或 DeepFake(IT之家注:深度伪造,简称“深伪”)等技术,其利用深度学习和计算机视觉算法,通过大模型学习真实人物的面部特征、表情、嘴型等信息,然后将这些特征合成到新的素材中,从而让画面看起来像是真人在说话。而语音合成则是 模仿名人的声音、语调甚至语气,使 AI 生成的声音更逼真。将两者结合起来即可生成“AI 拜年”短视频。
中国政法大学人工智能法研究院院长张凌寒表示,未经他人授权直接使用相关权利人的肖像和声音,侵害了当事人的人格权,其中 包括肖像权、声音权。声音的权利也参照肖像权保护的相关规定。若合成的声音 可能涉及造成他人侮辱、诽谤,损害他人声誉,可能构成名誉权侵权。如果使用的声音来自 受著作权保护 的录音制品和作品,或者说他人声音已经 被注册为商标 了,可能还涉及侵害 著作权和商标权 等。如果使用他人声音,又没有经过他人同意,也违反了行政法规的相关规定。
此外,《互联网信息服务深度合成管理规定》也明确,提供人脸、人声等生物识别信息编辑功能的, 应当提示使用者依法告知被编辑个人,并取得其单独同意。
刘兴亮表示,正规的大型 AI 服务平台和一些专业的视频合成工具,已经开始尝试加入一些 防止滥用的机制。比如强制添加 AI 生成标识或者水印,让观众一眼就能分辨出这是合成内容。还有在用户协议中 明确禁止未授权使用他人的形象和声音。部分平台还在后台建立了 内容检测和过滤机制,利用 AI 自身来识别疑似深度合成的视频。但真实情况是,现在仍然有很多工具 没有足够的防护机制,特别是一些开源模型或者小型应用,可能根本没有添加标识或者监管的限制,给滥用留下了空间。
中国政法大学知识产权中心特约研究员赵占领表示,必须履行好主体责任,建立全链条管理机制。AI 的经营者、平台企业应当 尽到主体责任,应当严格落实相关的管理办法所规定的标识义务;要提供便捷的工具,也应建立 事前提示、事中审核和事后追溯 的完整机制;在接到权利人发出的侵权通知之后,应当 及时采取删除等措施;如果没有采取相应措施,应当就损害扩大部分承担连带责任; 公众也应当增强法律意识。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区