人脸辨识技术歧视黑人?微软/IBM工具误差吓死人
人脸辨识工具也存有种族歧视吗?其实不然,稍微看慢一点来仔细了解个中原因才好。(达志影像/shutterstock提供)
Google相簿(Google Photos)在2015年曾闹出将黑人女性自动标签为「Gorillas」(大猩猩)的事件,引发轩然大波,还被指出有种族歧视意味,对此,Google不仅急速修改演算法,更出面道歉。无独有偶的是,近日有论文以商用人脸辨识技术为研究目标,结果发现人脸辨识技术对黑人女性的辨识错误率最高,仿佛是Google Photos乌龙事件的重演。
在苹果推出iPhone X之后,人脸辨识技术一时成为显学,市场讨论度提升不少。为了让读者更为了解相关技术细节,《纽约时报》报导了MIT媒体实验室(MIT Media Lab)研究员Joy Buolamwini与微软科学家Timnit Gebru共同合作的《Gender Shades: Intersectional Accuracy Disparitiesin Commercia lGender Classification》论文内容。论文中使用了微软、IBM以及旷视(中国大陆一家专注于人脸辨识的新创公司)的人脸辨识API(应用程式介面),来了解这些技术在性别判定的准确性。论文结果发现,以上三家厂商的商用人脸辨识技术中,对于黑人女性的辨识错误率普遍都很高,高于白人男性。
论文利用了自行搜集的一组Pilot Parliaments Benchmark(PPB)资料库进行测试,包含1270张人脸,分别来自三个非洲国家与三个欧洲国家。论文作者在进行研究后,有以下几个发现:
1.所有分类器在辨识男性人脸的表现优于女性人脸(8.1%、20.6%的错误率差别)
2.所有分类器在肤色较白的人脸表现上,优于肤色较深的人脸(11.8%、19.2%的错误率差别)
3.所有分类器在肤色较深的女性人脸上表现最差(错误率在20.8%~34.7%之间)
4.微软与IBM的分类器,在浅肤色男性人脸的表现最好(错误率分别是0%以及0.3%)。而旷视的分类器在肤色较深的男性人脸上表现最好(错误率0.7%)
在论文中的一组385张照片中,白人男性的辨识错误率最高仅1%。(图/翻摄纽约时报)
在论文中一组271张照片中,肤色较黑的女性辨识错误率高达35%。(图/翻摄纽约时报)
报导指出,论文作者之一的Joy Buolamwini乃是黑人女性,他在进行研究之前曾发现人脸辨识工具无法辨识她的脸,只有在她戴上一张白色面具才可行。这让她有了研究此议题的动力。从论文的研究可以发现,确实作者有尝试探讨AI(人工智慧)技术是否存在种族歧视的情况。