“张文宏”深夜带货?本人都想报警

被造假的名人只能“发声明”,上当的消费者只能“认倒霉”,这种无力被动的状况必须改变。

全文1311字,阅读约需4分钟

撰稿/柳早(媒体人) 编辑/迟道华 校对/杨利

什么?“张文宏”开始带货了?

最近有网友向媒体发来一段视频询问“张文宏是不是带货了?”在卖一种蛋白棒,家里的老人信以为真已经下单,还转发了很多群。

据媒体报道,在名为“般画234”的账号视频中,“张文宏”反复介绍着一种产品,口型是他的,声音也是他的。目前,这段伪造的视频在账号内已不可见。

如果是辨别能力强的观众,不难看出这是AI深度合成的视频。可是对很多老年消费者或是对“互联网生态”不那么了解的人来说,这依然能起到以假乱真的效果。比如该账号的商品橱窗截图显示,这款蛋白棒已售出1266件,可见“中招”的消费者并不少。

这种现象也并非罕见,除了张文宏之外,不少名人都深受生成AI仿冒之苦。比如此前引发众多关注的“假靳东”事件,骗子用AI伪造靳东的形象,以“谈恋爱”“拍戏”为名,大肆诈骗老人钱财;此外,明星艺人刘德华、黄百鸣,胖东来创始人于东来,小米董事长雷军等,都曾就自己被AI仿造发布过声明。

这种现象之所以猖獗,其实和追责困难有关,这点从张文宏的大吐苦水就能看出来。有记者联系了张文宏,“这样的卖货账号不止一个,且一直不断在变,自己多次向平台投诉但屡禁不绝。”他称自己也曾考虑过报警,但对方看不见摸不到,就像幽灵一般难以描述,“像蝗灾一样,一次次害人”,只能寄希望于相关部门加强监管。

事实上这正是问题的症结所在,伪造名人的账号,由于数量众多、分布广泛,让逐个进行维权变得近乎不可能。而且这些账号还学会了一大堆伎俩,比如趁着深夜把带货视频放出,到了早上再把视频屏蔽掉,这样买的人就投诉无门,也很难被发现。

这种乱象显然不应该再持续。其实现在已经不乏相关规定对此进行约束,《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等,都在内容审核、信息标识方面对生成AI的规范使用提出了要求。后者还特别强调,使用AI生成内容不得侵害他人肖像权。

但快速发展的AI产业造成了相关信息的爆炸式增长,客观上给AI信息甄别带来了困难。据《2024人工智能安全报告》显示,2023年基于AI的深度伪造欺诈暴增了3000%,基于AI的钓鱼邮件增长了1000%,可见问题的严峻。

因此,治理也应当提速,跟上产业发展的步伐。值得注意的是,今年9月,国家网信办发布《人工智能生成合成内容标识办法(征求意见稿)》,明确要求AI生成合成的内容要在显著位置作出标识,这也是进一步提出的强制性规范。

而问题的关键还在于执行,尤其是生成AI的主要使用场景——短视频平台,更要主动承担主体责任。对于生成AI内容应当进行更加严格的审核,并定期进行大规模内容筛查,如发现违规使用场景,就应当对账号作出严肃处理。

同时也应当对被侵权人和消费者维权提供更大的支持。比如张文宏抱怨“对方看不见摸不到”,这种现象就应当引起重视。当被侵权人或消费者向平台提出质疑,平台应当进行协助,提供相应的信息,帮助被侵权人和消费者锁定账号背后的实体或个人,由此进入赔偿或司法程序。

无论如何,不能任由AI造假泛滥成灾。从新闻也能看到,被造假的名人只能“发声明”,上当的消费者只能“认倒霉”,这种无力被动的状况必须改变。对此,无论是相关部门还是互联网平台,都需要进一步发力,提高信息筛查能力,让侵权者付出沉重代价,也让AI的技术发展始终保持在法治轨道之内。

值班编辑 康嘻嘻 实习生 张茉莉

本文部分内容首发自新京报公号“新京报评论”

未经新京报书面授权不得转载使用

欢迎朋友圈分享

星标“新京报”

及时接收最新最热的推文

点击“在看”,分享热点