中科院院士张钹:我们正处在AI算法不可控的危险状态
8月19日,2022世界机器人大会主论坛正式开幕,期间,有三位院士到场,就“未来机器人:目标、路径和挑战”的主题进行了一场深刻的谈话。
三位院士分别为中国科学院院士,清华大学计算机系教授、现任清华大学人工智能研究院院长 ,微软亚洲研究院技术顾问的张钹;中国工程院院士、机器人技术国家工程研究中心主任,辽宁省科学技术协会主席,北京邮电大学自动化学院院王天然;中国科学院院士,中国科学院自动化研究所研究员、机器人理论与应用专家乔红。
短短一个小时内,三位机器人领域的顶尖专家就人工智能与机器人的区别、智能机器人的未来、为什么要人机共融、机器人目前面临的伦理思考等多个话题进行了探讨。
在会上,张钹提到,第二代人工智能的算法是利用深度神经网络和对数据的训练来形成人工智能的,而纯粹靠数据驱动的方法必然不可解释、不可靠,因此即使机器人的智能还很低,但人工智能算法的不可控仍然可能使人类处于危险状态。
机器人“不是人”,人工智能“不够智能”
在很多人的印象里,“机器人”和“人工智能”好像是两个不分家的概念,甚至于现在的机器人只要一被提起,就自带“智能”的先天属性。然而,在张钹看来,机器人和人工智能是两个完全独立的领域。
“最明显的一点,它们的目标完全不同。人工智能是用机器来模仿人类的智能行为,追求的是机器行为与人类行为的相似性,甚至是越相似越好;而机器人则是为了协助人类完成一些本来是由人来完成的任务,追求的是完成任务或者人类信任。”张钹说。
而在这个以机器人为核心主题的世界机器人大会上,张钹也详细科普了机器人的三大主要研究内容:
执行结构;机器人的目的就是要(在物理世界里)完成任务,所以必须要有执行机构,这种机构可以是仿真动物,也可以建立在电机和齿轮传动的基础上。而这项内容在人工智能领域中就不一定要做。
能源;尤其是针对移动机器人,高效的能源是关键问题。
智能控制;这部分是一个“大口袋”,包括控制、人工智能、传感器和环境感知。
张钹表示,机器人的三大主要研究内容里,只有“智能控制”部分与人工智能有所重叠,这也就是为什么他认为说人工智能包含机器人,或者机器人包含人工智能都是不对的,这本身就是两个追求目标不同的学科。
“所以我认为这两个领域的名字也起得不好,‘机器人’这个名字让大家误解成它是一个人或者必须像人;人工智能则让人家以为人工智能做智能的,但实际上人工智能只能在模仿智能行为,即智能的外部表现,并非在模仿智能。”张钹补充道。
他也谈到了机器人的未来,同人工智能领域近些年热议的“通用人工智能”一样,机器人领域也有相似的争论:即系统是否需要具备一定的通用性,去完成很多任务?
在张钹看来,这个问题在人工智能领域是有讨论的必要性的,但是在机器人领域之中,没有必要做一个通用机器人去代替人,因为机器人本身就是为了完成一定的任务而制造的,比如专门做手术、专门举重等等,基本表现都是专用的,那么就不必让一个手术机器人去扛重。
所以他预言,将来会使多种多样的智能机器人出现,每个机器人来完成一定或一类工作。
机器人的未来:奴隶、朋友、还是同类?
就着张钹对机器人未来的畅想,另外两位院士也提出了自己的看法。
乔红认为,将来的机器人主要有三个要求:
智能发育;就像人类会有意识、情感和自己的目标,但机器人没有自主产生的目标,因此“发育”就是指自主学习,自由运动。
机理不能复制;指人在感性上的不可复制,独一无二。
永远的学习。
王天然则进一步认为,不管未来机器人做成什么样子,有一个问题肯定是共通的:机器人与人类应该保持什么样的关系?换句话说,也就是“人机共融”问题,这是人与机器人关系的一种抽象概念,具体指人与机器人可以相互理解、相互感知、相互帮助,实现人机共同演进。
对于现在两种甚嚣尘上的观点,王天然也发表了他的看法,一种是“将来机器人会统治人类”,他认为过于科幻,人造的机器不可能达到这个目标;而‘机器人造出来是为了取代人’的说法,王天然也认为是在故意挑起人和机器的矛盾,在他看来,机器人的目的不是和人争夺,现在整体的目标就是机器换人,人取代人。
那么机器人和人类最好的关系是什么呢?王天然用了四个字:“宛如同类。”
他解释道:“如果机器人要能替人类服务,那最好是伙伴关系,虽然你是机器我是人,但是我们俩感觉却好像是同类,而不是一个人和一个机器在一起。这样就能使得机器人能够更好为人类服务,而不是统治人类。”
人工智能算法不可控问题并非远虑
而要谈到机器人与人类的关系,那么必然还会面临另一个问题:伦理。
阿西莫夫认为,关于机器的伦理问题有两个需要思考的方面:机器人如果智能超过人类,或有意识以后,我们应该如何让机器人按照伦理准则来行为;人类如何按照伦理原则来设计和使用机器人。
张钹认为,上述两个方面表面看起来简单,实际上却关系到三大难题:
首先是标准和法规问题:什么是道德?什么时候不道德?这本身就有非常大的争议
对于人类来说,有人会在设计使用机器人的时候遵守伦理原则,但有些人不会
如果假设道德规范有了,还有涉及到机器人行为是否可控
张钹展开说明了第三个问题,他表示,如果机器人完全按照规则来执行,那就不是智能机器人,只有人类制造者给予了它一定的自主性,机器才能有创造性,才能逐渐学会自主解决问题,而这必然就要付出一个代价——机器人可能会不受控制。
张钹说:“当20世纪人工智能发展起来以后,虽然机器人还处在智能很低的阶段,但我们已经处在了一个危险状态,为什么呢?因为我们处于不可控状态,比如说用深度学习的方法开发出来的人工智能算法没有可靠性保证的。”
张钹最后提到了人工智能的三次浪潮:第一次是1956年到1974期间的人工智能1.0,科学家将符号方法引入统计方法中进行语义处理,出现了基于知识的方法;20世纪80年代初至20世纪末则是人工智能2.0,与人工智能相关的数学模型取得了一系列重大发明成果,进一步催生了能与人类下象棋的高度智能机器;而从21世纪初开始至今,人工智能3.0的浪潮正在掀起。
“我们要提出来第三代人工智,必须要解决第二代人工智能的算法不安全、不可靠、不可信、不可控的状态或问题,而这种担心现在看起来已经是一个近忧,而并非远虑了。”
采写:南都见习记者杨博雯