AI風險管控/AI威脅 恐比氣候變遷更迫切

自美国人工智慧(AI)研究实验室OpenAI推出生成式AI ChatGPT后,AI前进的脚步愈来愈快,让科学家忧心AI有朝一日超越人类,造成人类灭绝。AI研究先驱辛顿日前接受路透访问时说,只要停止碳排,气候变迁情况就会好转;但对于AI,人们却无所适从,AI的威胁甚至比气候变迁更迫切。

ChatGPT推出后短短2个月内,每月活跃用户达一亿人次,成为史上用户成长最快的应用程式,之后OpenAI又陆续推出GPT-2至GPT-4等语言模型。但包括OpenAI创始人马斯克,苹果共同创办人沃兹尼亚克及Stability AI执行长莫斯塔克等人,却联名警告AI系统能与人类竞争,恐造成政经混乱进而对社会与文明带来潜在风险。

信中呼吁,所有AI实验室应立即暂停至少6个月训练比GPT-4更高阶的AI系统。AI实验室与独立专家利用这段时间,共同研发、实施共享安全协议,并由独立外部专家审核、监督该协议。

2018年过世的英国知名天文学家霍金曾说,AI能自行发展,以愈来愈快的速度重新自我设计,人类却受限于缓慢的生物进化,无法与AI竞争。AI全面发展可能意味人类的终结。

透过深度学习,AI拥有比人类还快的演化能力。AI不似人类会历经死亡,并更出色地交流知识。AI透过大数据学习而更聪明,这段过程需要更多的资源与资料,不同的AI系统因此竞争资源,这如同生物演化一般,最终可能超越人类。

此外,AI研发进程可概分为弱人工智慧(ANI)、通用人工智慧(AGI)及超级AI三大阶段。在ANI阶段,由于仅能模仿人类,进行单一且重复性的工作,无法自己做决定,仅引发取代人类工作的疑虑。

牛津大学人工智慧伦理研究所副教授韦丽兹警告,一旦发展到AGI,快速生产的错误资讯恐造成政治与社会紊乱。发展到超级AI阶段,AI不论科学创造力、智慧、社交,甚至在所有领域都超越人类智慧。这让人想起电影「魔鬼终结者」,机器人发动灭绝人类的核战。

辛顿认为,现阶段AI还没有人类聪明,但很快就能走到这一步。这时像俄国总统普亭这样的领导人若赋予AI创造子目标的权力,AI可能会「创造出我需要更多权力的子目标」,最终带来生存风险。

美国麻省理工学院的博士后研究员帕克也发现,因为欺骗能更完美地完成人类赋予的目标,AI可能开始欺骗人类。甚至,AI能欺骗研发人员与监管机构设定的安全测试,让人类产生错误的安全感。一旦出现这种不可预测、追求权力、控制社会的AI,恐导致人类灭绝。

早在2015年,霍金、马斯克、沃兹尼亚克等逾千名专家,就连署警告军事自主武器充满危险,军事AI的军备竞赛是坏主意,人类应禁止使用「不受人类控制」的AI来管理武器。

但AI研究的先驱、加州大学柏克莱分校教授的罗素认为,问题不在于AI拥有自我意识并反抗人类,而是能力。人类恐因疏忽设置错误目标,让AI无意中灭绝人类。

比如,人类设置一个能控制气候变迁的AI系统,试图将大气中二氧化碳水平恢复到工业革命前的水准。经AI分析,人类活动是二氧化碳的主要来源,达成减碳目标的最好方法就是灭绝人类。

为避免灭绝发生,英国国防部限制武器使用与投射,都要有人类的同意。罗素也认为,重点是不要给AI明确目标。