吕本富:理性看待人工智能的“破坏性”创造
来源:环球时报
通用人工智能(AGI)又称强人工智能,是 AI 的一种理论形式,指具备等同或超过人类智能行为水平的人工智能。现在各国AGI发展呈现一派欣欣向荣的景象,但担忧的声音也越来越多。
3月29日,由特斯拉公司CEO 埃隆·马斯克等业内外知名人士联名签署了一封公开信,呼吁全球所有AI实验室立即暂停训练更强大的生成式人工智能系统,为期至少6个月,以确保人类能够有效管理其风险。上个月,被称为“AI教父”的杰弗里·辛顿宣布从谷歌离职。在离职的同时,杰弗里·辛顿宣布,自己正式加入AI批评人士的行列,甚至表示对自己一生从事的工作感到有些后悔。他认为,随着企业改进AI系统,它们会变得越来越危险。此事激起了更大的反响,因为如果说马斯克算外行的话,辛顿确实是普遍公认的业内翘楚。由此,AGI引发的治理问题引起了越来越多国家的重视。
然而笔者认为,且不说马斯克、辛顿等人的言论是否有偏颇,这些言论暂时还算不得国际的主流认知。国内也有类似的担心,目前也只可能会扰乱决策视线、加剧公众焦虑,难有建设性作用,例如“生成式人工智能将压制人类”“AGI打开了潘多拉魔盒” “人工智能将大规模取代人工”等。
泛泛的讨论、杞人忧天都没有意义,更重要的是认真思考接下来发展可能面临的风险,尽快出台治理方案。以下三个方面值得我们关注:
一是如何尽快突破AGI发展的技术瓶颈。海外大厂的开源技术有随时关闭的风险,我国需要有自研的大模型,莫让别人的地板成为我们的天花板。但目前国产大模型的问答结果与国外还存在较大的差距,以芯片为核心硬件基础的算力一直还处于“卡脖子”的状态。所以,如何突破这些技术瓶颈,甚至换道超车都是当前迫切需要解决的事情。
二是监管体系如何弹性化。国内对AGI的监管讨论刚刚开始,尚未形成成熟的监管思路:大模型在C端的应用依然处于悬而未决的状态;互联网大厂在既有的应用中大规模使用生成式AI也未有定论;使用海外数据训练,如何在国内进行微调也还需要一个过程。在国际竞争如火如荼之时,监管的效率直接决定了AGI的发展方向和发展速度。如何在数据与隐私安全、滥用风险、伦理等方面保持平衡,考验着监管者的智慧。
三是就业问题需要未雨绸缪。工业革命时期,大规模机器生产逐步取代小规模手工作坊生产,机器开始替代人工,引发了工人对机器的不满,形成了“卢德主义”,即对新技术和新事物的一种盲目冲动反抗,经常发生工人破坏机器以发泄对新技术不满的事件。经济史表明,真正能够引发宏观性、全局性就业危机的因素只有经济萧条和制度摩擦,而不是机器换人;机器可以代替一部分人力,但是同时也会按自己的“乘数效应”产生很多新岗位,甚至比以前更多。
但是不可否认,这次AGI确实对就业具有偏向性影响,可能导致劳动力就业结构呈现“V型”趋势。即高、低技能要求的常规工作岗位都不断增加,而中等技能的常规工作不断减少,中等技能水平的劳动力面临更大的被替代风险。这是工作性质差异导致的——人工智能会替代重复性、程式化的工作任务,而这些任务主要集中在中等技能工作中;企业会进行成本收益分析,中等技能水平工作岗位被替代后收益较高且在技术上更具有可行性,因而可能首先被替代。而具有一定创造性、非程式化的工作任务,在短期内不易被替代。人工智能对中等技能劳动力形成了挤压,他们开始向高技能和低技能工作岗位转移,从而出现高、低技能劳动力人数增加的现象。因此,对中等技能工作岗位劳动力的转岗和培训应该尽快纳入议程。
生产力工具与人之间并不是简单的替代关系。AGI属于人类智力的延伸,是人类的劳动工具, 并非是“悬顶之剑”;生产工具通过完善个体的能力,促成人的“价值分层”——底层要求是传统的“掌握通识知识、具备流程性工作能力”;更高层次的要求则是“产生创造性价值、高效利用工具解决问题”。
目前我们需要理性看待人工智能的破坏性创造,最重要的是着眼于自己的发展。新兴行业,各国都还在努力摸索。过程中总会有或大或小的问题,但是过度悲观,杞人忧天是不可取的。切不可尚不知“脚”多大之时,就贸然“穿上鞋子”,否则,鞋子就会成为裹脚布,让政策的发展变畸形。(作者是中国科学院大学经管学院教授、中国国家创新与发展战略研究会副会长)