IG同篇貼文底下 不同性別會看到不同的留言?小心AI正在強化你的無意識偏見
日前有网友发现,Instagram(IG)超级神功能又回归了,让看讯息可以悄悄偷看。(示意图/法新社)
原来IG贴文底下,不同性别看到的留言不一样?这些AI潜在的无意识偏见,你有察觉到吗?
IG同则贴文下,不同人会看到不同的留言?
在数位时代,人工智慧(AI)已深入我们生活的各个层面。然而,AI应用不当可能会加剧无意识偏见,特别是在性别议题上。
一个引人深思的例子来自社交媒体平台Instagram,一位内容创作者thekingzletter分享了一个有趣的观察:在一则关于「女生抱怨男友迟到」的影片下,男性和女性用户看到的热门评论完全不同。
女性用户看到的评论多是支持影片中的女生,如:
图/撷自内容创作者thekingzletter的IG帐号
男性用户看到的评论则倾向支持男友,例如:
图/撷自内容创作者thekingzletter的IG帐号
为什么会看到不一样的留言?AI的演算法造成什么现象?
该篇贴文下,有位机器学习研究者分享造成这个现象的原因为协同过滤(collaborative filtering),目的是最大化用户的萤幕使用时间。
AI演算法根据每位用户的使用习惯,显示最可能吸引他们继续浏览的评论。在社交软体环境中,协同过滤可能导致用户只看到与自己观点相似的评论。这种机制虽然提高了用户参与度,却也可能强化既有观点,限制多元视角的接触。
透过此案例的留言现象,我们也发现3点AI演算法会造成的现象如下:
还有哪些AI应用,有显示出性别偏见的案例?
这个社交软体的例子只是冰山一角。近年来,AI在各个领域的应用都显示出性别偏见的问题。
一、图像生成系统中的性别偏见
根据Nature的报导,AI图像生成器(如Midjourney)在生成专业人员的图像时,对性别存在偏见。例如,当被要求生成某些「专业」的人物图像时,系统往往会生成男性形象,特别是在年龄较大的专业人员中,这强化了性别偏见。
二、医疗诊断系统中的性别偏见
根据IBM - United States的报导,医疗诊断系统在对不同种族和性别的病患进行诊断时准确性不同。例如,对于黑人的诊断准确性低于白人,这是因为系统训练数据中女性和少数族裔数据不足。
三、招聘中的性别偏见
根据IBM - United States及World Economic Forum的报导,许多应用追踪系统(如亚马逊的招聘系统)使用自然语言处理演算法来筛选简历,但这些演算法往往会根据某些特定的词语(如“executed 执行”或“captured 捕捉”)进行偏见筛选,这些词语更常出现在男性简历中,导致女性应征者受到不公平对待。
四、虚拟助理中的性别偏见
根据IPI Global Observatory的描述,人工智慧工具女性化的趋势模仿并强化了社会的结构等级和刻板印象,「男性」机器人被认为更适合安全相关工作,而当日本在2015年推出第一家配备机器人接待员的饭店时,大多数机器人都是「女性」。
亚马逊的Alexa、微软的Cortana和苹果的Siri等「家庭虚拟助理」都优先被赋予了女性声音。
面对这些挑战,我们如何有意识行动?
个人层面
1. 定期进行「算法清理」:定期检查并调整社交软体和搜索引擎的设置,如清理浏览历史、重置推荐算法,或使用隐私浏览模式,以减少同温层效应。
2. 参与DEI与无意识偏见相关培训:主动参加或组织有关无意识偏见、共融领导力、文化敏感度的培训课程。这些课程可以帮助我们认识到自己可能存在的盲点,并学习如何更好地实践DEI原则。
组织层面
1. 建立多元共融的AI治理架构与组建多元化的AI开发团队,确保不同背景的人才参与。
2. 制定明确的AI使用DEI指导原则,为员工提无意识偏见培训,提高对潜在偏见的认识。
3. 设立AI伦理委员会或审核小组,实施持续的AI系统DEI评估,分析对不同群体的影响,及时调整系统以确保公平性。
通过上诉行动策略,我们可以系统性地应对AI强化无意识偏见的挑战,创造更公平、共融的环境,同时提高AI系统的可靠性和社会接受度。
延伸阅读