AI 或成独立自我创造技能路上的“绊脚石”
人工智能(AI)的兴起不仅给技术以及它所带来的大量可能性带来了问题,也给道德、伦理和哲学带来了问题。引入这项新技术,不仅对健康、法律、军事、工作性质、政治等方面产生影响,甚至对我们自身的身份也有影响——究竟是什么让我们成为人类,我们又如何实现自我认知。
《“AI 道德”》(牛津大学出版社,2024 年),由英国哲学家大卫·埃德蒙兹编辑,这是一本出自“哲学工作队”的论文集,探讨了 AI 将会如何极大地改变我们的生活以及它所引发的道德困境,描绘出了一幅令人沉浸其中的、有关令人欣喜的原因和令人忧虑的原因的图景。在这篇节选中,穆里尔·勒恩伯格,苏黎世大学技术和 AI 伦理方面的博士后研究员,重点关注了 AI 已经如何在塑造我们的身份。
她的文章,题为“你应该让 AI 告诉你你是谁以及你应该做什么吗?”解释了主导当今数字平台——从社交媒体到约会应用程序——的机器学习算法可能比我们自己更了解我们。但是,她认为,我们能相信它们为我们做出最好的决定吗,这对我们的能动性意味着什么?
你的手机及其应用程序对你了解很多。你在跟谁交谈、与谁共度时光,你去了哪里,你喜欢什么样的音乐、游戏和电影,你的模样,你读了哪些新闻文章,你觉得谁有魅力,你用信用卡买了啥,还有你走了多少步。这些信息已经被用来向我们推销产品、服务或政客。在线痕迹使像谷歌或脸书这样的公司能够推断出你的政治观点、消费偏好、你是否是寻求刺激的人、是否是宠物爱好者、是否是小雇主、你很快成为父母的可能性有多大,甚至你是否可能患有抑郁症或失眠症。
随着人工智能的运用以及人类生活的进一步数字化,人工智能有可能比你自己还了解你,这已不再是难以想象的事。
人工智能系统生成的个人用户画像,在描述其价值观、兴趣、性格特征、偏见或者精神障碍等方面,可能比用户自身的描述更精准。
实际上,技术已经能够提供连个人自己都不知道的个人信息。尤瓦尔·赫拉利的说法虽有些夸张,但也提出了类似观点。他声称,选择由人工智能推荐的伴侣、朋友、工作、聚会和住所将会变得合理且自然。
人工智能将能够把有关你的大量个人信息,与有关心理学、人际关系、就业、政治和地理的一般信息相结合,并且在模拟这些选择的可能场景方面会表现得更出色。
因此,似乎一个能让你知晓自己是谁以及应该做什么的人工智能很棒,不仅在赫拉利所说的极端情形下是这样,对于常见的推荐系统和数字画像而言也是如此。但我想提出两个原因来说明为何并非如此。
你怎么知道是否能信任一个人工智能系统?你怎么能确定它真的了解你并为你做出好的推荐?想象一下,一个朋友告诉你,你应该和他的表妹亚历克斯约会,因为你们俩是绝配。在决定是否去见亚历克斯时,你会思考你的朋友是否值得信任。你可能会考虑你朋友的可靠性(他现在是不是喝醉了,思维不清晰?)、能力(他对你和亚历克斯了解多少,他在判断恋爱相容性方面有多好?)和意图(他是希望你快乐,还是想骗你,或者只是想在晚上摆脱他那无聊的表妹?)。为了确定是否应该听从朋友的建议,你可能会温和地询问他:他为什么认为你会喜欢亚历克斯,他认为你们俩有什么共同点?
这已经够复杂了。但对人工智能的信任判断则更为复杂。很难弄明白人工智能到底对您的哪些情况有所了解,以及其提供的信息可信度怎样。许多人工智能系统都被证实存在偏见,比如说,它们会从训练数据里重现种族和性别方面的偏见,所以咱们最好别盲目相信它们。通常,我们无法要求人工智能解释其推荐,也难以评估其可靠性、能力和开发者的意图。人工智能进行预测、特征描述和做出决策所依靠的算法,通常属于公司的财产,用户没法获取。即使这些信息可用,也需要高度的专业知识才能理解。那些购买记录和社交媒体帖子如何转化为性格特征和政治偏好?由于一些人工智能系统存在被广泛讨论的不透明性或“黑箱”性质,就算是精通计算机科学的人,可能也没法把人工智能系统完全搞懂。人工智能生成输出的过程在很大程度上是自我导向的(意味着它在不遵循开发者设计的严格规则的情况下生成自己的策略),并且难以或几乎不可能解释。
即使我们有一个相当值得信赖的人工智能,第二个伦理问题仍然存在。一个告诉你你是谁以及你应该做什么的人工智能是基于这样一种想法,即你的身份是你可以发现的东西——你或人工智能可以获取的信息。你真正是谁以及你应该如何度过你的一生,可以通过统计分析、一些个人数据以及关于心理学、社会制度、关系、生物学和经济学的事实来获取。但这种观点忽略了一个重要的点:我们也选择我们是谁。你可不是你身份的被动承受者,而是积极、动态地去创造它。你发展、培育和塑造你的身份。这种身份的自我创造方面在存在主义哲学中一直处于前沿和核心地位,让 - 保罗·萨特就是一个例子。存在主义者否认人类是由任何预先确定的本性或“本质”所定义的。没有本质的存在总是会变成与今天的你不同的人。我们在不断地创造自己,并且应该自由和独立地这样做。在某些事实的范畴内,比如你出生的地方、你的身高、你昨天跟朋友说的话,你完全有自由,并且从道德层面来讲,需要构建属于自己的身份,并且明确对你有意义的东西。至关重要的是,目标不是挖掘出唯一正确的存在方式,而是选择你自己的、个人的身份并对其负责。
人工智能能够给您提供外在的、量化的视角,它能像一面镜子一样,并且给您建议行动的方案。但您应该掌控并确保对自己是谁以及如何生活负责。人工智能可能会陈述很多关于您的事实,但您的工作是找出它们对您意味着什么以及您如何让它们定义您。对于行动也是如此。您的行动不仅仅是寻求幸福的一种方式。通过您的行动,您选择您是什么样的人。盲目跟随人工智能意味着放弃创造自己的自由并放弃对自己是谁的责任。这将构成道德上的失败。
最终,依赖人工智能来告知你是谁以及你该做什么,这或许会阻碍独立自我创造所必需的技能。
倘若你持续借助人工智能来寻觅你喜爱的音乐、职业或者政治候选人,你最终或许会忘却如何自行完成这些事。
人工智能不仅可能在专业层面令你丧失技能,而且在个人追求自我创造的亲密进程中也会这样。
在生活中做出恰当的选择,并塑造一个有意义且能令你愉悦的身份,乃是一项成就。
将这种权力分包给人工智能,你会逐渐对自己的生活丧失责任,最终连自己是谁也不再负责。
很难知晓是否以及何时能信任人工智能的分析与推荐系统。
更为重要的是,把决策分包给人工智能,你或许无法达到创造自身并对自己负责的道德要求。
在此过程中,你可能会丧失自我创造的技能,让你的身份变得僵化,并且把对自身身份的控制权拱手让给公司和政府。
在涉及你身份的最为重要的决策和特征的情形下,这些担忧尤其沉重。
但即便在更为平常的情况下,时不时地将推荐系统搁置一旁,在选择电影、音乐、书籍或者新闻时更加积极且富有创造力,也是不错的。
让自己接触与当下的你并非完全一致的影响和环境,你便能获得发展。
搬到一个令你不快的城市可能会打乱你平素的生活节奏,并促使你,比方说,去寻觅一个新的爱好。
不断依赖人工智能推荐系统可能会使你的身份僵化。然而,这并不是推荐系统的必然特征。理论上,它们可以被设计成拓宽用户的视野,而不是通过向客户展示他们已经喜欢的东西来最大限度地提高参与度。但在实践中,它们并不是这样运作的。