东方法学特稿|王苑:具身智能体的隐私风险及法律应对——以“人形机器人”为例的展开
作者:王苑,东南大学法学院讲师、东南大学人民法院司法大数据基地研究员、法学博士。
具身智能代表了传统人工智能的具身化转向,其核心理念是模拟人类智能的具身“进化”过程,创造出作用于真实世界的“身—智—行”统一的机器人。自2023年年初至今的生成式人工智能技术的跃进式发展,成就了机器的“身体/意向”的双层具身构造。具身智能体是指那些能够感知、理解环境,并通过智能决策和行动来与环境互动的应用。这些应用通常具备传感技术、数据处理和执行能力,以模拟或模仿人类感知和行为。具身智能体不等于生成式人工智能或多模态,因为具身智能的前提是有一个身体,但其又不能狭义地等同于人形机器人,因为也存在非人形的智能系统。但毫无疑问,人形机器人是具身智能体中最具代表性的一种。
人形机器人又称仿人机器人或类人机器人,具有拟人的肢体、运动与作业技能,具备感知、学习和认知能力。2023年10月20日,工业和信息化部印发《人形机器人创新发展指导意见》,该意见对人形机器人的发展作出了全面的战略部署。作为衡量国家科技创新和高端制造业水平的重要标志,人形机器人正成为科技竞争的新高地、未来产业的新赛道。2024年1月12日,北京人形机器人创新中心专家委员会成立大会上重磅宣布了北京将加速布局人形机器人未来产业,打造机器人产业综合集聚区。业内专家认为,人形机器人与生成式人工智能的融合,开启了“具身智能”时代,具身智能机器人是人工智能的终极形态。
机器人技术早已深入渗透制造业的发展,工业机器人替代了流水线上的工人;从军事到教育,从交通运输到医疗保健,从老年护理到儿童玩具,机器人正在以新的方式进入公共和私人领域,但也引发了许多社会和伦理问题,尤其是人形机器人的隐私和安全问题。具身智能体给隐私保护提出了哪些新问题?哪些问题通过既有的法律路径就足以解决?本文主要从具身智能技术的特性、具身智能体对隐私和数据保护的挑战及相应的法律应对展开。
一、面向社会的具身智能体
具身智能技术呈现出具身性、交互性及涌现性三种显著特性。过去流行的观点是,技术的问题交给技术人员来处理。然而,现实却是,技术问题已经成为了人文社科无法回避的真正问题,无论是海德格尔还是刘易斯·芒福德、兰登·温纳等学者,在20世纪就已经开始思考技术问题的本质。与自然科学不同的是,社会科学更多关注的是技术的社会面向。
(一)具身智能技术的特征
1.具身性
人工智能的发展依赖数据、算法和算力,但对世界的感知和行动通常需要一种物理存在,数据、算法和算力并不具备物理存在,因此机器人通常是具身的。通常意义上的具身,是指身体与心智的统一。具身性思想关注身体以及身体、大脑及周围世界复杂的相互渗透关系在人类智能形成和实现中的重要作用。具身智能并不限于人形机器人,但与无实体的计算机程序不同,具身性使得机器人很容易被形塑(picture)出来,进而对人的心理产生影响。具身智能体的设计出现了拟人化的发展趋势,一方面是因为受到各种科幻隐喻的影响,但更主要的是因为拟人化可以帮助消除用户与机器人之间的隔阂,使人机交互更加轻松和愉快,促进情感联系和沟通。人们更倾向于信任和欣赏一种具身化的人工智能(通常以机器人的形式出现),而不是无身体的系统。
2.交互性
具身智能体的交互性是指其与人类进行双向沟通和互动的能力。交互性的提升使得机器人能够更好地理解人类的语言、情感和意图,并作出适当的回应。人类倾向于以不同于其他物体的方式看待可以与人类进行交互的机器人。有大量文献表明,人们对机器人的反应是与人互动类似的反应。触发这种反应的门槛很低:早期的心理学研究甚至表明人们会赋予页面上移动的形状以社会角色。达令曾经做过一项著名的实验,研究人员先让人们和机器恐龙玩具玩耍了一个小时,后要求参与者使用武器将机器恐龙玩具射杀,所有的参与者都拒绝了。即便告诉他们可以射杀其他的恐龙玩具来保护自己的,他们依然拒绝。这一实验展现出了机器人越来越能与人进行互动的同时,也可能引起人类同理心。
3.涌现性
人工智能的涌现性指的是在人工智能系统中出现的新特性、新行为或新结构,这些特性不是由单个算法或模块的性质所决定的,而是由整个系统的组织、相互作用和学习过程所导致的。人工智能的涌现性可能表现为系统学习到的意想不到的行为或解决问题的能力,这些行为或能力超出了单个组件的能力范围。涌现性使得人工智能系统具有更高的灵活性和适应性,能够应对复杂、不确定的环境,并表现出类似于人类智能的特征。
涌现性并不存在于低层次的单个要素之中,而是系统在低层次构成高层次时才表现出来,所以形象地称为“涌现性”。一个常见的例子是蚂蚁遵循简单的规则来完成复杂的、看似智能的任务。系统功能往往表现为“整体大于部分之和”,就是因为系统涌现出新质的缘故,其中的“大于”成分就是涌现的新质。系统的这种涌现性是系统的适应行为体(adaptive agent)之间非线性相互作用的结果。拥有涌现能力的智能体,可能具有一定程度的自主性,能够根据环境和目标作出自主决策,并采取相应的行动。
(二)具身智能体的社会属性
具身智能体的具身性、交互性以及明显的自主行动结合在一起,使其具有社会属性。具身智能体的社会属性指智能实体作为某个社会角色而行动,而智能体的具身性和交互性是其具备社会属性的前提条件。具身性提供了机器人的物理属性,交互性则满足了人类与机器人进行情感交流的需求,从而使机器人的自主行为具备了社会性。过去的机器人只能重复指令执行行动,而具身智能体则更像一种能够适应环境的系统。具身智能体自己可以主动感知环境,例如当有一个盒子在它的面前时,它会主动感知并可能尝试打开这个盒子。
交互性尤其体现了机器人社会性,人们往往倾向于将可互动的移动物体视为活物,但关键不在于机器人是否具有物理形态——毕竟,烤面包机也具有物理形态——而是在它们的交互性在人类中产生了特定的社会性。交互能力的提升对于机器人“社会角色化”具有重要影响。一旦机器人具备了社会角色,比如家庭机器人成了家庭的一员或伴侣机器人成了人类的伴侣,那么未来的具身智能设备,如具身智能音箱或类似宠物狗的扫地机器人,很可能会扮演家庭成员的角色。此外,经过有意设计的人形机器人会进一步增加机器人的社会性。总之,无论个人是否了解技术的本质或内涵,机器人的社会影响与生俱来,并会随着时间的推移而持续存在。
智能机器人和人之间的关系通常被理解为智能机器人担任照料者、朋友、伙伴以及引起人类浪漫兴趣的精神伴侣。在应对超老龄人口社会问题方面,智能机器人被证明是非常有用的工具。人工智能和机器人伙伴已经被看作人类的朋友,并且与人类之间能够交互影响,形成各类情绪、思想等。与西方国家相比,东亚主要国家表现出了对人形机器人的特别偏好,例如日本政府正竭力将机器人纳入社会并使机器人成为其社会基础的关键部分。通过和大模型结合,机器人已经具备了成为人类重要助手的能力。2023年阿里巴巴展示其大模型时,工程师通过钉钉发出指令“我渴了,找点东西喝喝吧”,大模型在后台自动编写了一组代码发给机器人,在识别周围环境后,机器人从附近的桌子上找到了一瓶水,并自动完成了移动、抓取、配送等一系列动作。
因此,与历史上的任何技术相比,机器人对人类具有更强的社会影响力。在大多数情况下,我们不会对一堵墙说话并期待其回应,也不会将墙视为可能的朋友,但机器人似乎与众不同。心理学家彼得·卡恩和他的同事进行了一系列试验,试图了解人们如何思考机器人。研究对象既不倾向于认为拟人化的机器人是活着的,但也不认为它们是物体。在这样的研究中,研究对象倾向于将心理状态的差异归因于机器人的反应,因为如果只是与一个物体打交道的话,很难会有诸如感到不适等想法。
当机器人的行为逻辑很难被理解时,人们往往会沿用既有社会认知来填补空白,因此机器人的拟人化成为社交互动和社会认知在人类生活中重要性的自然延伸。然而,拟人化也同样带来诸多伦理上和法律上的问题,其中之一是可能会混淆真实和虚假,从而破坏社会基本价值观。本文想要深入讨论的问题是智能机器人对隐私这种基本价值的侵害。在讨论技术对隐私价值的侵害程度时,取决于该技术在特定场景中收集、处理个人信息的方式是否合理。
二、具身智能体对隐私和数据保护的挑战
机器人技术和人工智能系统是具身智能体的一体两面,杰克·巴尔金曾批判如果坚持把两者区分得太明显,可能会造成一定的误区。单纯讨论机器人或人工智能对隐私价值的威胁是片面的,具身智能技术的具身性、交互性及涌现性凸显了其社会性特质,展现了其强大的互动和行动能力,对隐私价值产生深远的影响,也给既有的隐私与数据保护法律规则带来前所未有的挑战。
(一)具身智能体的隐私威胁和侵害
许多隐私问题由来已久,当然并不仅由具身智能体所导致。然而,具身智能体强化了数据收集能力和分析能力,增加了隐私入侵的可能性,同时其自主决策和行动的能力容易将隐私威胁转变为实害,使得隐私和数据保护所面临的问题更为复杂。
1.收集与监视的方式趋向多样化
以人形机器人为例,人形机器人比以往任何技术或宠物都更能融入人类的世界,甚至可能比一些家庭成员(如儿童)更能融入,这种互动形式存在欺骗性、隐蔽性、持续性等特质,带来一系列的隐私威胁。民法典第1032条第2款规定:“隐私是自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息。”人形机器人侵犯隐私的方式是多维的,可能单一侵犯其中一种隐私,也可能同时侵犯多种隐私。
第一,私密空间。具身智能体进入私密空间不易引发人类反感,尤其是具有行动能力的家庭机器人。例如,人们很少会将智能扫地机器人进入卧室视为对隐私的威胁。心理治疗过程中机器人的使用,尤其是机器人已经从提供简单的情感支持发展到高技能的专业技能,比如24小时陪伴、个性化服务等,在这类机器人面前,用户是否还保有私密空间几乎无从谈起。此外,人形机器人与人工智能系统不同的是,其行动能力可能会导致更为恶劣的人身伤害后果,一旦机器人被黑客攻击,不排除机器人可能随时会为有所企图的第三人打开家门,甚至有些机器人还可能协助破坏家庭财物或“一本正经地胡说八道”来吓唬老人或孩子。
第二,私密活动。人形机器人可以全方位、持续性、无间断记录个人私密活动。一方面,人们很少会考虑到需要避开机器人从事私密活动。实时摄像头开始进入家庭后,实际上家庭摄像头除了具有防盗功能,还会拍摄并实时记录家庭中其他成员的私密活动,而具身智能体必然配备实时摄像功能,同时其移动能力更是为记录用户的私密活动提供了可能。另一方面,机器人可能会满足人类从事私密活动的需求,例如据媒体报道,性爱机器人就十分具有市场前景。为满足和人类的交互性功能,人形机器人配备了一系列先进的传感器和处理器,大大放大了对环境信息和个人信息的收集和记录能力。比如近日美国AIbotics公司最新研发的按摩机器人,该机器人搭载AI功能,通过传感摄像头对用户的背部进行扫描建模,并可自主规划按摩路径。这些被收集和记录的私密活动或个人信息,会被存储在公共云或名义上的私有云中,一旦泄露,后果不堪设想。
第三,私密信息。人形机器人收集的信息性质较以往敏感度更甚。首先,人形机器人可能引导用户有意无意主动透露私人或敏感信息,涉及操纵用户。有研究表明,智能系统的具身化具有亲和力,可能增加用户的风险容忍度并减少其隐私担忧。同时,有研究表明装有“面孔”和“眼睛”的具身智能伴侣能以看上去有感情的方式回应用户的需求。人类潜意识的反应,都会被记录下来。无论是通过机器人的感应设备,还是嵌入为代码,相关数据都会被固定存储在文档中。其次,人形机器人可以近距离接触并不断分析信息主体,通过大模型推断出个人信息、敏感数据,最终可能比主体本身更了解自己。比如机器人可能收集生物识别信息进行人脸识别或情感计算等。洗碗机或自动烘干机的运行数据很难说明其使用者的性格,但作为伴侣的人形机器人的运行数据却能传递很多敏感问题。
2.无法预测的自动化决策和行动相结合
与其他智能系统不同的是,除了自主决策,具身智能体还可以将决策转化为行动,因此威胁很可能成为实际损害。机器人学领域的学者托马斯·谢里丹提出了一种四阶段信息处理模型:(1)信息获取(观察);(2)信息分析(定位);(3)决策选择(决定);(4)行动实施(行动)。设想智能机器人在公共场所突然对人群发起攻击,这对于不具备行动能力的智能系统而言显然无法做到。2017年2月欧洲议会通过的《机器人民事法律规则》指出,机器人的自主性可以被界定为在外部世界作出独立于外在控制或影响的决定并实施这些决定的能力。该定义包含了两个具体层面:一是独立作出决定的能力,二是实施决定的能力。
一方面,具身智能体可以自主决策。第二次世界大战后,欧洲法律一直在努力使人处于自动决策过程中——无论是通过允许公民坚持由人作出特定决策的权利,还是需要人参与的平台责任。因此欧盟法上对于完全的自动化决策,即无人干预的自动化决策一直都是持原则上禁止、例外允许的立法态度。然而,人工智能的涌现能力赋予了机器人自主性。其在不同环境中的反应和决策甚至不是其设计者可以预料或事先控制的,这种不可预测性源于算法的复杂性,包括那些能从过往经验中学习的算法,还可能包括了多层创新、数字系统的生成性以及数据的流动性等原因。机器可以使用检测到的模式对某些复杂的事物作出有用的决定,而不需要像人类那样理解它们的潜在意义。因此,完全自动化的决策在具身智能体的情形下完全可以实现,其表征是机器人显得会“思考”和能与人“共情”。但这种无法预测的自主决策能力一旦失灵,在对个人影响重大的事项上直接作出决定,那么可能会对个人权益造成极大的伤害。
另一方面,具身智能体可以自主行动,行动必然导致一定的后果。过去的人工智能系统,包括生成式人工智能,都不具有行动能力,换言之其本质上更像是一个决策辅助系统。但是,一旦不可预测的自主决策与行动能力相互结合,很可能会带来某种程度的实害。从隐私和数据保护的角度来说,具身智能体对隐私的侵害行为表现为三个类型:一是表现为未经个人同意进入、拍摄、窥视他人的私密空间,智能体可以直接进入一些其他人难以进入的私密空间并进行拍摄;二是未经同意拍摄、窥视、窃听、公开他人的私密活动,智能体的拍摄可能是为了与人类互动所需,但人类无法预测其下一步行动,是否会将私密活动的音视频传输或公开等;三是未经个人同意处理他人的个人信息,包括将个人数据传输给第三方或者故意或重大过失泄露个人的隐私信息等。
(二)既有隐私与数据保护规则的困境
既有的隐私和数据保护法建立在个人信息控制论基础之上,但无论是机器人技术还是生成式人工智能,都具有“反控制”的鲜明特质,与既有的规则之间存在不可调和的冲突。此外,具身智能体数据的生成和涌现加上造成实际伤害的能力可能会使追究责任变得不切实际。
1.个人信息控制机制的失灵
数据保护围绕着个人信息控制进行了全面的规则设计,包括“告知—同意”“目的限制”“最小必要”“信息处理中的个人权利”等。具身智能体的社会性带来了与用户互动的新方式:收集用户信息并潜在地影响用户行为,同时在不可预测的情形下展开行动。以人形机器人为例,个人信息控制机制的失灵体现在多个方面:
首先,“告知—同意”规则受到更为严重的质疑。信息隐私长期以来在某种程度上都与控制有关,同意作为控制的手段,是数据保护的核心。人形机器人影响个人的方式更加微妙、更加自动化、更加不透明。且不论人形机器人能否做到充分告知数据收集和利用的政策,即便能通过技术手段解决告知问题,面对类人的机器人,人们是否还有足够的理性作出最符合自身利益的决定?尤其是当机器人具备情感交流等交互特质时,引诱用户作出的同意是否有效?如何判断机器人是否存在引诱等行为?此外,对敏感个人数据的收集和处理如何做到单独同意?如果机器人与用户交流时不断弹窗单独提示可能会收集用户的敏感信息并要求其同意,势必影响到用户体验,二者之间又如何协调?在未成年人数据保护方面,儿童是使用陪伴型具身智能体的主要人群之一,机器人往往是在家长无暇或无须取得其监护人的明示同意规则?
其次,目的限制原则在具身智能体场景下被无限突破。目的限制原则被一些学者称为数据保护中的“帝王条款”,是个人信息控制的实现方式。根据个人信息保护法第6条第1款,该原则要求“处理个人信息应当具有明确、合理的目的,并应当与处理目的直接相关,采取对个人权益影响最小的方式”。具身智能体可以无时无刻持续收集用户的个人信息,包括敏感个人信息,然而具身智能体的涌现性特征和自主行动的特征,让信息处理者根本无从判断信息收集使用的最终目的,这从根本上突破了数据保护中的目的限制原则。
再次,最小必要原则在具身智能体场景下几乎不可能实现。从体系解释上,最小必要原则依赖于目的限制原则,数据的收集和处理应当在合理目的的范围内最小化,超出合理目的范围的收集就是不必要的。一方面,必要性原则作为个人信息处理的整体性原则,不能通过告知同意规则进行规避。另一方面,具身智能体自主行动的特性显然无法满足目的限制和最小必要原则,因为智能体必须不断收集环境和个人的数据,才能依据这些数据来进行决策和判断下一步的行动,而且在目的并不明确的情形下,有意义的“最小必要”根本无法保障。
最后,完全自动化决策拒绝权被架空。既有的数据保护法从某种程度上对人工智能系统中的数据保护是有所考虑和规定的,比如赋予信息主体拒绝权以防止完全自动化决策对个人生活的影响及伤害。然而,自动化决策及行动是具身智能体的本质属性,信息主体在知悉和了解该属性的前提下,接纳具身智能体进入个人的生活,是否就等同于同意和接受了完全自动化决策和自主行动可能带来的实际影响?如此,数据保护法中的信息主体的拒绝权还有无必要?是否还有实现的空间?
除上述列举外,无论是从权利的角度赋予个人对信息的控制权,还是从义务的角度要求处理者履行对信息的处理义务,数据保护的许多规则均依赖于对信息的控制。然而在自主涌现系统中,很多情形下会对控制进行颠覆,例如用户给人形机器人布置了陪伴老人的任务,机器人却以一种意料之外的方式完成了这个任务,比如通过泄露用户隐私来吸引老人的注意力。概言之,过去的数据处理整体上是线性的,“收集—分析—决策—使用”,每个环节个人或处理者都有一定的控制权,数据生成模糊了数据收集和数据处理之间的界限,非线性处理方式的复杂性会增加控制的难度,使得许多隐私保护法律变得无效。
2.侵权责任难以归责
隐私和个人信息侵权事件中,由于往往不知道是哪个环节泄露了个人信息,确定责任主体的困难严重阻碍了受害人的诉讼积极性。叠加大规模微型侵权的维权成本和诉讼收益之间不成比例,侵权责任中的因果关系难以厘清等现实困境,受害人很少会通过诉讼途径进行维权。除了上述固有的隐私与数据保护难题,具身智能体侵权的独特性在于,一旦用户的隐私或个人信息权益受侵害,如何准确界定侵权主体以及界定侵权责任将成为核心议题。
具身智能体能否成为侵权主体?这一问题可还原为具身智能体是主体还是工具之辨。机器人越来越模糊了人与工具之间的界线,2017年沙特阿拉伯宣布授予机器人“索菲亚”以公民资格,这就促使法学界进一步思考具身智能体是否具有独立的主体地位。肯定观点认可人形机器人具有类人的特性,尤其是深度学习、神经网络等技术赋予了人形机器人生成“观点”、自我“反思”、“感受”环境等与人相似的技能,甚至有些领域的机器人可以在“反事实”层面与世界互动,而具身的存在可以让机器人在感性世界中行动,成为类人主体意义上的存在。此类可以反思、互动及行动的机器人形象在各种影视作品中并不鲜见,未来可基于现实需求从侵权责任主体开始,承认人工智能的法律主体地位。
反对观点则认为机器人现在是、未来仍将是工具。机器人是(可以)运用复杂软件的高级工具,但本质上无异于一把锤子、一台电钻、一个文字处理软件、一个网络浏览器或者车里的刹车系统。人格理论经过几个世纪的变革,即使把纯粹技术性的法人纳入了主体的范围,但本质依然是伦理性的,是自由意志。机器人是否已经拥有了自由意志?自由意志包含了三个阶段,分别是感觉、感知和自我感知。感觉已经可以通过传感器技术实现;感知则可以通过数据的收集分析和解释;但是机器人是否已经实现了自我感知,即便到目前,依然是一个未知数。有学者断言,人工智能或许可以进行快速的计算,但是它缺少精神。至少从中短期来看,无论是技术能力还是社会环境,似乎都还没有到人工智能法律人格获得广泛认可的阶段。
一方面,将具身智能机器人完全归类为主体或工具均有一定难度,另一方面人们普遍倾向于像对待人一样对待具身智能体,这一悖论威胁了主客体二元价值观。也使得在具身智能体侵权事件中确认责任主体难上加难,法律主体责任说之外,还产生了产品责任说、高度危险说、用人者责任说等代表性观点。总之,机器人的拟人化不是赋予其法律人格的理据,但是,考虑到一般社会大众与这些机器人接触时,在某些特定环境下易陷入“人格化陷阱”,且自主行动的机器人决策的背景、依据、机理、程序等甚至连程序设计者都无法洞察,似乎应该赋予智能体有限责任。
由于人工智能体的法律人格难题,导致侵权责任主体不明确,具身智能技术的发展使得这一界定变得更加模糊。在涉及人工智能体的侵权案件中,设计者、制造商、所有者以及实际使用等均可能对侵权行为承担某种程度的责任,但是现行的法律体系并未充分考虑到这些新的责任主体。
三、具身智能体场景下的隐私和数据保护
具身智能体侵害隐私的行为极具迷惑性,责任主体更难确定,隐私与数据保护的理论和既有规则均难以回应。为纾解具身智能体场景下隐私与数据保护的困境,一方面应当对既有规则框架进行改进,以更好地适应具身智能场景;另一方面在即将开展的人工智能立法中,应当加强对数据保护相关理念的植入,确保其符合法律和伦理要求。
(一)数据法中隐私与数据保护规则的转进
传统的个人信息同意机制本身在应对大数据和人工智能的挑战时已经举步维艰,这种困难在具身智能体的背景下更加凸显。过度依赖同意机制可能会导致忽视其他重要的隐私保护措施。但完全取消同意机制可能剥夺个人对其个人信息处理的控制权,违背了数据保护的核心原则。
1.避免过度依赖个人同意制度
早期的讨论主要关注在数字时代消费者或公民能够多大程度维护个人信息的控制权,因此个人信息同意机制成为各国数据立法的重要选择。但人工智能的数据收集方式使得用户同意机制形同虚设。智能系统收集大量用户数据的目的和用途往往是未知的,大量研究表明,人们并不清楚自己在同意什么。目前各大互联网公司已经在更新其隐私政策,表明其将使用用户个人信息以支持其人工智能的开发。因此,同意制度一旦被处理者所滥用,可能异化成为个人信息处理的“自由通行证”。比如信息处理者往往借助一揽子同意为不当处理或滥用个人信息的行为免责,或是通过获取用户同意超过必要范围收集用户个人信息。这些行为显然违反了个人信息保护中的安全保障、目的限制、最小必要等原则。同意机制已经沦为了一块遮羞布,只是为了展示形式上符合法律法规的数据合规。
驱动具身智能体的算法进一步使得问题复杂化,这些算法依赖于大量的数据,为了能够评估其风险,人们必须成为专业的数据科学家,同时还必须能够审查用于训练算法的数据,显然这是不可行的。在生成式人工智能的背景下,即便是设计者也并不一定真正知晓决策的背景和逻辑,因此,要求对决策的基础和决策的过程几乎一无所知的用户作出基于真意表示的同意,显然违背了赋予个人同意的初衷。
此外,人形机器人等具身智能体可能涉及引诱、操纵用户等情形,这更放大了同意制度本身的缺陷。个人面对引诱或操纵时,可能会受到情绪、压力、欺骗等因素的影响,无法在理性的情形下作出决定,导致决策失误,比如一个拟人化的机器人吸尘器在了解用户的个性后,在软件升级时发送悲伤的表情引导收取费用。因此更应避免过度依赖个人同意制度。
最后,应当认识到的是,购买者主动购买或使用具身智能体,比如家庭机器人,并不意味着购买者主动对隐私进行了让渡。有观点认为如果个人真的重视隐私,可能会选择不购买这些产品。这一观点是对数据处理中的同意制度的误读。一方面,同意购买并不等同于同意处理,尽管可以将同意处理作为附加合同条款写入买卖合同,但这样的行为可能被视为一种搭售,违反了当事人的自由意志,属于不公平的合同条款,可能导致相关合同条款无效或部分无效。一旦发生损害用户个人信息权益或隐私的事件,该种同意无法作为商家或设计者的免责事由。另一方面,同意处理个人信息也并不意味着同意滥用和同意损害个人权益,信息处理者在处理个人信息的时候依然要遵循个人信息保护法的相应原则和规则。因此购买合同中的信息处理附加条款只能意味着用户在一定程度上了解机器人可能会有一些潜在的风险,但并不意味着就完全让渡了隐私,这样的同意也无法为后续所有的信息处理赋予合法性基础。
2.弱化同意机制并不等于取消同意
完全取消知情同意机制并不可取,弱化同意机制并不等于取消同意。在具身智能体场景下,同意机制很难真正保障个人对个人信息的控制,但并不能因为完美的个人控制的不可能,就得出有效的控制不可能的推论。就像锁可以被撬开,并不意味着锁毫无用处。即使是部分的控制,也能有强有力的影响。况且保留同意机制以保障最低限度的自我裁量,有利于强化用户的主体意识,而非退化为“襁褓中的婴儿”,由机器人来决定和安排自己的生活。人的自由裁量确实有时候是代价高昂、效率低下且容易出错的,但如果让渡这种自由裁量,无疑是让渡了人的主体性。
具体操作上,可以对同意机制进行制度上的改良。比如智能系统可以通过主动身份验证、声音验证、人脸验证等方式来识别出特定群体,并据此采取不同的同意机制。根据人群的不同,可以区分弱势群体和非弱势群体。所谓的弱势群体,可能包含了未成年人、老年人、精神脆弱群体等。比如针对未成年人,确保未成年人使用机器人时有家长的同意,比如自动给家长的智能手机发送实时通知并获得家长的有效同意;针对老年人群体,采取简单易懂的同意方式,避免过于复杂和冗长的说明,比如通过轻松日常的对话等方式来告知使用机器人可能有的隐私风险;针对精神脆弱群体,需要特别关注其心理状况,并结合辅助人员或医护人员协助其作出符合其心智特征的同意。
对于非弱势群体,为确保信息主体能够对其个人信息保持持续的控制,有学者提出可以采用动态同意模式,以应对数据及其在人工智能体中使用的不断变化的性质。在这种模式下,个人可以根据自己的意愿和偏好随时更新和修改对数据处理的同意范围、同意内容以及同意方式。同时为避免反复征询授权致使数据主体安宁权受损,可默认一定时间的“连续授权许可”。即在一定期限内,个人的同意可以持续有效,无需频繁重新确认和操作。
此外,具身智能体场景往往涉及敏感个人信息的收集和处理,根据个人信息保护法的规定,“只有在具有特定的目的和充分的必要性,并采取严格保护措施的情形下,个人信息处理者方可处理敏感个人信息”。除单独同意之外,可以借鉴医疗决策中的参与式同意方式,参与式同意模式强调用户的积极参与和充分理解,即一旦涉及敏感个人信息,需要反复和用户沟通处理的范围和处理的手段,反复确认用户的意愿,最终和用户共同决策实现合法正当的信息处理,提升人机交互的用户信任度和满意度。
(二)人工智能立法中的隐私和数据保护
人工智能立法已经迈入大规模立法新阶段,2023年6月,中国国务院办公厅印发《国务院2023年度立法工作计划》,明确提出“预备提请全国人大常委会审议人工智能法草案”。以欧盟《人工智能法案》为代表的立法采取了“弱化个人控制,强化损害和风险”的模式,通过制定预防性的规则,欧盟法案更关注开发或实施人工智能系统的参与者(提供者),以填补数据保护法留下的一些空白。
1.通用型具身智能体市场化的禁止
早在20世纪60年代初,人工智能概念的提出者之一明斯基就认为,“程序设计者肯定可以创立一个不断演化的系统,而其发展界限是他不清楚和可能无法理解的”。而图灵则提出了通用计算机概念,并且还设想了建造计算机用于模拟人工智能的可能性,包括怎样测试人工智能以及机器怎样自主学习。因此,通用型人工智能是计算机科学家的理想,也是科幻作品中最具代表性的一类机器人原型,它们几乎等同于人类,可以在多个任务线之间随意切换,可以同时扮演不同的身份和角色。如两位人工智能领域的先驱所料,日前英伟达公司已在组建通用具身智能体实验室GEAR,该实验室的目标之一是研究和开发通用型机器人。通用型机器人也许很快可以在实验室问世,但市场化的智能体必须是功能导向的,且须有明确的应用场景。
欧盟《人工智能法案》将人工智能应用场景的风险分为:不可接受的风险、高风险和有限风险,制造不可接受的风险的人工智能系统将被禁止。可见,该法案中对通用目的人工智能(GPAI)进行了限制,明确规定其可能被视为高风险人工智能系统。笔者以为,通用型具身智能体(或通用型机器人)的风险是不可接受的,应当被禁止。从隐私与数据保护角度出发,主要有以下几个方面的原因。
第一,通用型智能机器人可能会涉及广泛的数据收集和处理,它们被设计成能够适应各种不同的场景和任务。“生成式的人工智能系统并非为特定的场景或使用条件而建立,其开放性和易于控制使其具有空前的使用规模。”因为其功能面向广泛,涵盖多个场景,因此在收集和处理信息时往往无法满足目的限制原则和最小必要原则的要求,信息的使用也无法控制在特定的范围之内。如果一个被设计用来陪伴老人的陪伴型智能机器人,在陪伴的过程中利用收集的老人个人信息进行自动化决策购买广告商品,家庭和商业不同的社会场景有不同的目的,前者注重对人的陪伴和照顾,后者则要求经济利益的最大化,这两者之间会产生一定的冲突,如果要求机器人同时兼顾上述两种目的,就会导致陪伴型机器人自动购买商品等事件,这显然是不合适的。
第二,不同的场景对收集的数据数量和质量有不同的要求。比如在家庭场景中的陪伴型机器人和在商业场景中的智能体就存在显著区别,前者重数据质量相对轻数量,主要原因在于前者服务于少数家庭成员,需要精准满足和理解家庭成员的需求和偏好,因此收集的数据必须准确和可靠,以提供高质量的个性化服务。而商业场景中更重数量,对质量要求则没有那么高。原因是智能体往往服务于商业决策、市场营销等功能,为更好了解客户需求和市场趋势,需要收集大量的数据,而对数据质量的要求可能相对灵活。
第三,智能机器人作为特殊用途的“人类”,如果设定特定的场景,为特定的原因或功能而存在,在行为方面模仿人类相对容易,但通用型机器人的“领悟”和“模仿”较弱,还不足以模仿人类的微妙心理和在不同场合下调整其言行。如果机器人无法准确模仿人类的行为和心理,那么在特定情境下使用它们可能会导致误解或不当行为,进而影响到个人的隐私和个人信息权益。因此,明确机器人不能通用化,而应该针对不同场景进行应用,是必要的。
此外,缺乏具体社会场景的具身智能体权责不明,无法形成相应的法律关系。从社会技术视角来说,具身智能体的运作和影响都嵌入在社会结构之中,唯有如此才可以更好地发挥其服务人类的作用。技术进入人类的生命和活动网络之中,并成为其组成部分,因而产生了相应的后果。技术影响并不是事物本身的特征,而是使用这些事物的社会关系的特征。因此,围绕着智能机器人在不同社会场景下的角色,发生的一系列法律事件或法律行为,最终导致了主体的权利得丧变更。比如医疗人工智能、司法人工智能与完全自动化的替代性自动化驾驶汽车,其与用户之间的社会关系不同,引发的风险不同,法律关系自然也不相同。实际上,技术所引发的法律关系有两个不同的层面:其一是新技术如何影响人们的生活,其二是人们如何与使用新技术的其他人交互。当通用机器人的社会地位不完整、场景不确定,甚至是随机的时候,这种法律关系就也是不确定的。因此,只有在具体的场景中,具身智能体的功能和作用才是明确的,因而其中的法律关系和法律责任也是清晰可识别的。
2.人工智能设计中的数据保护原则
随着具身智能系统越来越多地处理敏感个人信息,如何通过预防性的措施来保障用户的隐私和安全成为人工智能立法的重点。即便在人工智能将以不可预见的方式发展的情况下,人工智能的设计者或生产者仍然可能会被认为是理解和控制风险的最佳人选。“通过设计的数据保护”早已是数据保护领域默认的一项重要原则,这项原则主张隐私和数据保护应该被整合到设计阶段。强调了需要制定健全的数据保护政策和实践,以防止个人数据的滥用和未经授权的访问。既往的研究早已表明“代码即法律”,输入系统中的知识和建模过程中涉及的假设可能反映了系统设计者的偏见,计算机硬件和软件的组合,像其他形式的规范一样,可以限制和引导人类行为。
结合具身智能技术和应用的特点及隐私与数据保护之要求,设计者设计系统时,有几个方面可以综合考虑:(1)设置隐私,即设计者保障用户在隐私保护中的参与,在系统或应用程序中提供用户自定义设置信息收集和处理的功能。(2)数据自动删除,即在收集和处理敏感个人信息或临时性的浏览数据后,除非有充分的必要性,否则在一定期限后一概自动删除此类数据的功能。(3)匿名化和去标识化。设计者可以在收集和存储数据过程中对个人的身份信息进行处理,确保通过一般性的技术手段无法识别到特定个人。(4)位置隐私保护。个人位置信息的特殊性质决定了其一旦被泄露,可能会影响到个人的人身自由和人格尊严,因此应当采取原则上禁止、例外允许收集的方式。尤其是具身智能体有行动的能力,更应当明确禁止其收集用户的位置信息。
以上种种设计隐私的策略,只是设计中的“冰山一角”,此外,监管机构对设计者的问责机制也不可或缺。针对侵权主体难以确定的问题,通过设计的数据保护义务也成为设计者“可责性”(account ability)的理据。可责性指的是确保相关参与者对其行为和决策承担责任,并能够提供解释和证明其行为的合理性和合法性。换言之,在无法明确侵权主体或责任成立的因果关系无法查明的情形下,被侵权人完全可以依据设计者对系统的可责性进行诉讼,由设计者举证证明自己不承担具身智能机器人侵权的责任。已有研究表明,在设计智能机器人的时候,设计者会将更深层次的哲学、伦理甚至政治观点有意无意融入设计工作中,因此应该更多地思考(机器人)运行的环境以及人类对设计这些环境的责任。在具身智能体的背景下,可责性涉及确保设计者和监管者对于应用的功能、数据收集和处理、算法运行等方面负有透明度、可解释性义务,并能够接受外部审查和监督。这有助于防止滥用、不当使用数据或算法的情况发生,并提高对于应用运行的合理性和合法性的信任度。
结语:隐私理论的又一次迭代?
科幻作家威廉·吉布森在《神经漫游者》中曾说:“未来已至,只是分布不均。”我们对技术的想象,经历着从不可能到可能。如果说过去讨论机器人技术还有很多幻想和寓言的成分,那么现今智能机器人正在成为现实社会的一部分,深刻影响人类生活。历史上,技术的每一次革新都引发了隐私理论里程碑式的发展。便携式相机的日常化,使得偷拍变得轻而易举,因而沃伦和布莱代斯在《隐私权》一文中呼吁一种“不受干扰的权利”;小型计算机的普及及存储能力和计算能力的增长,使得个人数据被无限记录和存储,大规模泄露也成为可能,因此引发对数字利维坦的恐惧;进入21世纪以来的智能技术的发展,更加剧了对算法黑箱等问题的担忧……
具身智能技术对隐私产生了众多挑战,虽然这些挑战并非全新,但毫无疑问,它们让问题变得更为复杂和棘手。对既有的隐私和数据保护法律制度的“剪裁”和“缝补”已不足以全面回应这些难题。理论上的革新和迭代已经势在必行,本文虽无法从根本上解决这一庞大的理论难题,但亦希望为未来的研究提供一点思考和启发。
(本文来源于《东方法学》2024年第3期)
专题统筹:秦前松