生成式AI,恐引发深假资安危机…KPMG:企业应以三招自保
所谓生成式AI是一种几乎可与所有软体进行互动的全新技术,最终目的是模仿人类的创意行为,能根据人类已创造出的东西生成新的内容。最近热门的ChatGPT便是其中一种应用。
KPMG提醒,随着生成式AI发展,将加重「深假技术」的威胁,例如骇客用ChatGPT针对不同企业,产生数万封钓鱼邮件后,再运用伪造声纹假冒财务长致电财务人员进行汇款;或骇客用生成式AI的强大分析与归纳功能,找出企业内部弱点,借此进行网路进阶攻击或窃取机密。
KPMG安侯企业管理(股)公司执行副总经理林大馗表示,生成式AI连动深假技术,将使企业资安风险加乘,对此企业透过三方面来对资案进行自保。
首先是除了标配防火墙与防毒软体,可能还需透过「人工加工人智慧」的打假工具及内容确认工程师一起作业,才能有效降低AI带来的资安风险。
第二是在新兴的风险治理工具尚未成熟前,一般企业可以建立「智慧型主动式」的防护能量,林大馗指出,例如在公开影片中添加专属的杂凑值或安全凭证,以确保来源的真实性并防止骇客暗中搜集与恶意窜改。或是扩大运用「MFA多因子认证」,让消费者透过两种以上的认证机制,才能取得授权。
林大馗表示,第三个方法,降低骇客攻击的的风险及提升使用者隐私安全性,企业可参考零信任(Zero Trust)资讯架构,避免一次验证后即可长时间与完全取用所有服务的传统做法。例如可改采依据不同服务风险等级、搭配多次且不同方式验证,降低单一识别方法失效的灾损程度。