Google制定道德规范 承诺不将AI应用于军事武器

▲Google 与美国国防部合作虽小,却引起大规模关注。(图/资料照,记者洪圣壹摄)

记者黄肇祥综合报导

上个月,Google 与美国国防部协议合约公开,但此举却引来内部员工反弹,有 4000 多名职员递交请愿书,更有数十名打算辞职以表示抗议,为了平息内部纷争,根据《纽约时报》报导,Google 打算制定相关的道德规范,禁止将 AI 技术应用在军事武器

今年五月,《GIZMODO》报导,Google 参与美军的 Maven 计划,希望借由机器学习增强无人机的辨识能力,减轻监控人员的负担。尽管 Google 表示技术只用来标记图像,不会有任何侵略性用途,对比其他合作项目,与军方的合作金额也非常少。解释却仍无法平息员工的不满,爆发 Google 史上最大规模的离职潮。

Google 目前向员工承诺,会制定一套 AI 与军事武器的道德原则,排除将人工智慧运用在武器上的可能性细节仍不清楚。《纽约时报》也公开,去年 9 月 Google 高层还在讨论,如何公开与国防部的人工智慧合约时,Google 人工智慧首席科学家李飞飞表示,强烈建议避免使用 AI 这个词,「就算 AI 武器并非最敏感的 AI 话题,却也是其中之一。这只会招来媒体们对于 Google 的恶意攻击。」

尽管 Google 做出承诺,但细节仍让人有所疑惑,《The Verge》就点出问题关键,「Google 该如何划出底线?」透过机器学习来分析监控画面,会不会导致 AI 武器化?也许不会,但有没有可能影响无人机发展的未来趋势?甚至朝向具有攻击性质?Google 又该如何判断?