AI安全峰会 16企业将自订守则

AI安全峰会由英、韩联合举办,为期两天,21日采虚拟会议形式,22日采实体会议形式。图/美联社

全球主要经济体及AI公司继去年在英国召开第一场AI安全峰会后,近日再度在韩国召开峰会,除了号召各国建立安全监管机构跨国网络之外,谷歌、Meta、微软、OpenAI等16家AI公司也承诺制定安全守则,为AI安全把关。

来自美、英、日、韩等10国领袖及欧盟领袖在21日参与「AI首尔高峰会」的线上会议。这场由英、韩联合举办的峰会为期两天,21日采虚拟会议形式,22日采实体会议形式。

除了上述各国领袖之外,包括谷歌、Meta、微软、OpenAI、亚马逊、IBM、xAI、三星电子,以及来自大陆的腾讯、美团、智谱ai、小米也出席21日线上峰会,另有来自法国的Mistral AI及来自沙乌地阿拉伯的G42等公司与会。

发表开场演说的联合国秘书长古特雷斯(Antonio Guterres)表示,去年11月英国举办第一场AI安全峰会以来,AI产业又发表更多技术演进,同时也对人类生活带来更多新的威胁,从网路假消息到大规模监控系统都因AI技术精进而更加猖獗。

古特雷斯呼吁各国联手为AI安全把关,而与会各国也同意建立跨国的安全机构网络,其中包括英、美、日及新加坡等国已建立的AI安全监管机构。

上述16家AI公司也承诺建立自发性的AI安全守则,除了发表各自的AI风险评估机制之外,也承诺一旦发现自家AI研发计划的风险超乎控制范围,将自愿停止研发。

参与21日线上会议的大规模语言模型开发商Cohere创办人戈梅兹(Aidan Gomez)表示,去年11月以来各国对AI安全的疑虑已从长远未来可能毁灭人类转向近期未来的迫切威胁,例如网路假消息、资料安全、AI模型预设立场偏颇及威胁人类就业机会等正在发生的问题。

各国为了尽速建立周全法规监管快速发展的AI产业,近来已分头进行立法。联合国理事会在今年3月通过第一个关于AI系统的全球决议,欧盟理事会也在近日通过《AI法案》。