最近,某演员遭遇“AI盗播”,在同一时间“现身”多个直播间带货。该演员向自己的“分身”提出质疑,还被拉黑了。此事再度引发公众对AI(人工智能)的讨论。
近年来,生成式AI飞速发展,曾经需要一定专业技能才能完成的视频制作,如今可以轻松完成。但技术被一些人滥用,也带来一系列乱象:有消费者伪造“买家秀”骗取退款,社交平台出现大量虚假明星合影,诈骗分子伪造音视频“围猎”老年人……AI原本是表达创意、提高工作效率的好帮手,如今却有沦为造假工具的危险,这一现象必须引起警惕。
9月份开始施行的《人工智能生成合成内容标识办法》明确,人工智能生成合成内容标识包括显式标识和隐式标识。显式标识是以文字、声音等方式呈现并可以被用户明显感知到的标识,当AI内容具有迷惑性甚至误导性时,显著的标识能够帮助用户迅速作出判断、辨别虚假信息;隐式标识是指采取技术措施在生成合成内容文件数据中添加的标识,在追溯伪造内容来源、维护被侵权人合法权益方面具有重要意义。
《标识办法》施行以来,各大平台纷纷响应,出台各类细则确保AI内容亮明身份,迈出了AI内容治理的关键一步。但目前仍有部分AI内容未添加任何标识,对观众形成误导。进一步遏制AI造假乱象,还需构建多层次的治理体系。
比如,强化法律保障,进一步明确AI造假的处罚标准,厘清服务提供者、平台、用户三方责任,覆盖多种造假情形;加强监管力度,针对各类AI造假行为开展专项治理工作,建立多部门协同联动的监管体系,形成打击合力;升级技术手段,提升高精度检测能力,精准识别造假内容。
演员被“分身”只是一记警钟。技术迅猛发展,治理必须跟上。只有规则、监管、技术同步“打补丁”,才能有效减少AI造假,降低公众上当受骗的风险。





商业观察网-《商业观察》杂志社官网版权与免责声明:
① 凡本网注明“来源:商业观察网或《商业观察》杂志”的所有作品,版权均属于商业观察网,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:商业观察网”。违反上述声明者,本网将追究其相关法律责任。
② 凡本网注明“来源:XXX(非商业观察网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
③ 如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。
相关文章