外商公司执行长接到「这大咖来电」 惨喷620万元
警方提醒深伪诈骗手法。(翻摄照片/林郁平台北传真)
AI深伪科技诈骗层出不穷,日前一间外商公司的执行长,接到英国母公司上司一通电话,要求他紧急将620万元台币汇至指定供应商的帐户,执行长认为自己对上司的声音相当熟悉不疑有它,随即派人转帐,事后才惊觉被骗,赫然发现上司的声音是透过声音转换(Voice Conversion)的技术伪造的。
警方表示,单纯的声音深伪的犯罪手法,对嫌犯来说更加容易,使民众降低戒心而上当受骗,且深伪影像技术的进步,已经让眼见不一定为凭。
警方表示,最早「深伪」专用于替换人脸的软体名称,以「自动生成编码器」的深度学习系统为基础,以AI掌握对象特征点,训练判别生成高度相似的脸孔影像或声音,目前「Deepfake」已经成为利用深度生成技术生成影像、声音、文字等多媒体内容的总称,包括脸部特征变换、性别与年龄转换、图像风格转换。
随着近年来深度学习技术模型技术的快速发展,大幅提升做出高仿真内容伪造的效能,深伪技术变得更容易取得、伪造时间缩短、技术获取门槛变低的趋势,成为诈骗的犯罪手法,近期就有歹徒利用Deepfake影片诈骗金钱、感情的案例。
警方表示,在AI来临的时代,民众遇到亲友或陌生人以影片或电话请求借钱或威胁汇款等,应以其他方式联系当事亲友以多方联系管道或拨打165反诈骗咨询专线查证,才能避免AI科技造成的危害及损失。