Google新研究计划 让AI更有包容力、不歧视他人?
你也曾被 Siri 的回应气到哭笑不得吗?Siri 的幽默是需要靠人类来教导的,但其实也有不少人工智慧被教坏的前例,近期 Google 推出一项计划,就是为了让 AI 更具有包容力,减少歧视人类的可能。
▲人工智慧是现今科技的发展趋势,期盼透过机器学习辅助人类的生活。(图/视觉中国 CFP)
这项计划由资讯视觉化的专家 Fernanda Viégas 与 Martin Wattenberg 带领,代号为 PAIR(People + AI Research),试图站在人类的角度,重新思考人与 AI 的互动方式,且重要的是,如何确保计划能受惠于每一个人。计划分成三个研究方向,包含如何让工程师更了解 AI 的学习机制、各领域的专业人士如何透过 AI 完成工作,最后则是希望让 AI 更具有包容性。
▲微软人工智慧「Tay」学坏乱讲话,上线 24 小时遭下架(图/取自 Twitter/Tay Tweets)
去年三月,微软为研究人类的对话形式,推出一款名为「Tay」的智慧聊天机器人,除了会说笑话,特别的是给它看图片,Tay 能够辨识进而给出有趣的评论,且在每一次的谈话过程中,都会不断改善自己的回话内容,然而有网友发现 Tay的个性都取决于问话方法,因此网友开始进行「调教」,最后竟将 Tay 训练成种族歧视的偏激分子。
Tay 并非人工智慧被教坏的首例,惠普电脑的脸部辨识系统,就曾传出对于非裔族群特别难以辨认,又或者在其他 AI 系统中,医生总是被预设为男性,护士总是女性。这些问题都源自于 AI 学习的过程当中,人们灌输错误的资讯,进而导致连 AI 也开始产生偏见。也因此 PAIR 计划公开两款开发工具「Facets Overview」与「Facets Dive」,让有志投入 AI 研究的专家,可以更轻易检查数据是否有偏差。
▲Google近年来积极研发人工智慧,希望能有所突破。(图/路透社)
Google 认为关键在于设计 AI 的思维,不将它视为一种技术,而是可以设计的材料,试图用全新的想法打造 AI。当然,这样的研究与想法已经有不少学者、专家提出,但能看见 Google 这样的大公司愿意投入研究,对于科技发展铁定不是坏事吧?