闢謠地獄累死小編 杜奕瑾:用AI助民眾了解認知操作
如今生成式AI已经被拿来生成头像和言论、几可乱真。认知攻击已经使用人工智慧(AI),防守网路攻击也必须透过人工智慧去了解讯息的操作。(本报资料照)
台湾人工智慧实验室创办人杜奕瑾指出,讯息操作自2018年开始日益增多。以鸡蛋事件为例,如果仍只是让政府部门对进口鸡蛋争议篇篇立即回应,只会累死小编。
他认为,建立数位素养、让民众知道认知操作的状况,并使用可信任的资讯平台来获取讯息,可以让民众更有效率接收到完整讯息,避免被片面资讯误导。
面对台湾各社群平台充斥许多讯息操作,杜奕瑾接受中央社记者视讯采访时表示,台湾人工智慧实验室(Taiwan AI Labs)发现,从2018年关西机场事件开始,面对假消息都以事实查核作为解方。但之后越来越多讯息操作的战场往往不在于消息真假,而是刻意运用大量的误导让大众对目标对象产生喜恶,原因是生成式科技以及大型语言模型(LLM)已被用来生成假帐号和散播操作消息。
杜奕瑾指出,事实查核必须经过严谨冗长的查证过程,而就算查完一个消息,又会有10个以上的假讯息冒出来,「基本上是查不完的」。另一方面自从全球建立事实查核组织的网络后,讯息操作的走向常常不是造假而是误导。如今生成式AI已经被拿来生成头像和言论、几可乱真。认知攻击已经使用人工智慧(AI),防守网路攻击也必须透过人工智慧去了解讯息的操作。
●认知操作见缝插针 放大社会不信任感
面对认知战步步进逼,杜奕瑾直言,现阶段作法应是揭露认知操作策略,让民众知道哪些议题被不正常的放大;认知操作就像「见缝插针」,快速把社会变得互相不信任,难以得出一致性结论,也更难弭平彼此之间的不同意见。
杜奕瑾表示,认知操作在台湾,常见同时锁定2个不同阵营同时激化攻击,并非为了要攻击或吹捧特定对象,而是尝试摧毁台湾过去的社会氛围,进一步放大仇恨和偏见,变成彼此不信任的环境,以便后续有更好操作空间。
杜奕瑾强调,在生成式AI当道的时代,民主国家社交媒体都涌入大量的操作帐号,流入的讯息对一般人已经多到看不完、听不完。有别于传统要求平台做事实查核的方法,Taiwan AI Labs透过大型语言模型,让所有网路意见都可以被AI理解与分析,同时教导民众如何借由使用新生成式科技,了解如何产生几可乱真的内容,并辨识协同讯号,透过人工智慧再加上大型语言模型去分析和透视操作手法。
杜奕瑾指出,透过AI工具和演算法,可以协助民众更有效率看完、读完所有讯息,有助于突破同温层;且倘若有讯息被操作,Taiwan AI Labs所打造的非营利讯息平台,也会揭露、标示,提醒使用者可以主动观察某些仇恨言论是否被放大、使用者是否获得全面性的消息,以免被片面资讯或不对称翻译所误导。
●声量大于真相年代 运用AI突破同温层辨别认知操作
杜奕瑾说,以往政府部门面对假消息,原则是赶快回应或澄清,但从这次农业部进口鸡蛋事件的相关讯息操作来看,政府部门马上回应效果有限,只会累死小编,而民众不见得买单。
他分析,当政府部门回应假消息后,协同帐号群会根据回应内容、生出更多的攻击。声量大于真相的年代,民众的观感更容易透过讯息操作被塑造,进而不信任官方的回应;政府部门在辟谣时,不能只针对事件本身,还要进一步揭露讯息操作手法,从行为模式分析操作策略教导大家辨识哪些误导正在发生。
杜奕瑾说,协同帐号可分:造谣者、假中立者、传播者与粉丝经营者等4种类型,分工细密,且在网路上「共进共出」、互相呼应的协同团体,会因社群平台特性而有不同的操作手法。
他指出,在脸书的假消息传播者,现在会把假中立者的内容,散播到原本就有很大声量的社群,例如运动社群或知名品牌粉丝页;在PTT的操作手法,则是先贴出新闻,同时借由不断回文或针对新闻底下前几则推文带风向。
YouTube的协同操作行为又不太一样。杜奕瑾说,Taiwan AI Labs发现最近有很多中国网红在YouTube成立频道,属于讯息传播者,协同帐号群会设法捧红这些YouTuber,并在影片内容置入特定观念,例如中国可以解决相关问题、生产鸡蛋的方法很先进,进而伪装成客观或中立的意见进行论述。