人脸辨识技术歧视黑人?微软/IBM工具误差吓死人

人脸辨识工具也存有种族歧视吗?其实不然,稍微看慢一点来仔细了解个中原因才好。(达志影像/shutterstock提供)

Google相簿(Google Photos)在2015年曾闹出将黑人女性自动标签为「Gorillas」(大猩猩)的事件,引发轩然大波,还被指出有种族歧视意味,对此,Google不仅急速修改演算法,更出面道歉。无独有偶的是,近日有论文商用人脸辨识技术研究目标结果发现人脸辨识技术对黑人女性的辨识错误率最高,仿佛是Google Photos乌龙事件的重演

苹果推出iPhone X之后,人脸辨识技术一时成为显学,市场讨论度提升不少。为了让读者更为了解相关技术细节,《纽约时报报导了MIT媒体实验室(MIT Media Lab)研究员Joy Buolamwini与微软科学家Timnit Gebru共同合作的《Gender Shades: Intersectional Accuracy Disparitiesin Commercia lGender Classification》论文内容。论文中使用了微软、IBM以及旷视(中国大陆一家专注于人脸辨识的新创公司)的人脸辨识API(应用程式介面),来了解这些技术在性别判定的准确性。论文结果发现,以上三家厂商的商用人脸辨识技术中,对于黑人女性的辨识错误率普遍都很高,高于白人男性

论文利用了自行搜集的一组Pilot Parliaments Benchmark(PPB)资料库进行测试,包含1270张人脸,分别来自三个非洲国家与三个欧洲国家。论文作者在进行研究后,有以下几个发现:

1.所有分类器在辨识男性人脸的表现优于女性人脸(8.1%、20.6%的错误率差别)

2.所有分类器在肤色较白的人脸表现上,优于肤色较深的人脸(11.8%、19.2%的错误率差别)

3.所有分类器在肤色较深的女性人脸上表现最差(错误率在20.8%~34.7%之间)

4.微软与IBM的分类器,在浅肤色男性人脸的表现最好(错误率分别是0%以及0.3%)。而旷视的分类器在肤色较深的男性人脸上表现最好(错误率0.7%)

在论文中的一组385张照片中,白人男性的辨识错误率最高仅1%。(图/翻摄纽约时报)

在论文中一组271张照片中,肤色较黑的女性辨识错误率高达35%。(图/翻摄纽约时报)

报导指出,论文作者之一的Joy Buolamwini乃是黑人女性,他在进行研究之前曾发现人脸辨识工具无法辨识她的脸,只有在她戴上一张白色面具才可行。这让她有了研究此议题动力。从论文的研究可以发现,确实作者有尝试探讨AI(人工智慧)技术是否存在种族歧视的情况