Grok誤判戰爭影像!AI查核事實成趨勢 專家警告:不是可靠資訊來源
X平台内建AI助理Grok。 路透
印度与巴基斯坦上月爆发4天冲突,各种错误资讯爆增,社群媒体用户求助人工智慧(AI)聊天机器人来验证,却陷入更多谬误。这凸显AI作为事实查核工具有多不可靠。
法新社报导,随着科技平台删减真人事实查核员,用户愈来愈常仰赖AI聊天机器人来搜寻可信资讯,例如xAI的Grok、OpenAI的ChatGPT和谷歌(Google)的Gemini。
科技大亨马斯克(Elon Musk)的X平台内建AI助理Grok,用户经常就某个资讯的真伪向Grok提问,反映出社群媒体用户立即分辨虚实的趋势日渐成长。
但答复本身往往充斥错误资讯。
Grok错误认定一段苏丹首都喀土穆(Khartoum)机场的旧影片,是近期印巴冲突中针对巴基斯坦努尔汗(Nur Khan)空军基地的飞弹攻击。由于Grok在没有关联的回答中提到极右翼阴谋论的「白人种族灭绝」一说,正再次受到详查。
另一段呈现尼泊尔一栋建筑物起火的不相干影片,被错认为「可能」显示巴基斯坦军方回应印度攻击。
假消息监管机构「新闻守门人」(NewsGuard)研究员沙迪吉(McKenzie Sadeghi)告诉法新社:「在X和其他大型科技公司减少投资真人事实查核员的同时,(用户)愈来愈仰赖Grok查核事实。」
她警告:「我们的研究一再发现,AI聊天机器人不是可靠的新闻和资讯来源,尤其是突发新闻。」
「新闻守门人」研究发现,10款主要聊天机器人容易重复错误资讯,包括俄罗斯的假消息叙事,以及与近期澳洲大选有关的错误或误导性说法。
哥伦比亚大学(Columbia University)陶氏数位新闻中心(Tow Center for Digital Journalism)近期研究8款AI搜寻工具后发现,聊天机器人「通常不擅长拒绝回答自己无法准确回复的问题,而是提供不正确或臆测的答案」。
法新社在乌拉圭的事实查核员拿一张AI生成的女子照片向Gemini提问,Gemini不仅证实照片真实无误,还捏造这名女子身分的细节,以及可能的拍摄地点。
长期以来,在极为分化的政治氛围中,真人事实查核一直是极具争议的议题,尤其在美国,保守派倡议人士坚称这种查核方式打压言论自由,专门审查右翼言论;专业查核员则大力否认这类指控。
AI聊天机器人的品质和准确性,依训练方式和程式设计而异,因此令人担心这些机器人提供的答案可能受到政治影响或控制。
国际事实查核联盟(International Fact-CheckingNetwork)负责人霍兰(Angie Holan)说:「我们已看到,在真人程式设计师具体变更指示后,AI助理会捏造结果,或提供有偏见的答案…我特别关切的是,Grok在收到提供事先授权答案的指示后,不当处理有关非常敏感事务的要求。」