《AI的現在與未來》AI人工智慧代理人的進展與趨勢

MIC产业分析师郭唐帷分享AI Agent产业应用发展趋势;摄影:北美智权报/卢颀

※如欲转载本文,请与北美智权报联络

卢颀╱北美智权报 编辑部

每个人都可能拥有由人工智慧驱动的个人助理」—比尔盖兹, 2023年[1]

资策会产业情报研究所(MIC)产业分析师郭唐帷于日前MIC第37届《智链未来AI:Now & Next》研讨会中,表示上述的言论于今(2024)年即有可能发生。

什么是AI Agent?

其实AI Agent就是我们从大型语言模型(large language model, LLM)发展到通用人工智慧(artificial general intelligence, AGI)一个阶段性的成果,简单来说,也就是备受讨论的「AI代理人」。图1为OpenAI应用AI研究负责人Lilian Weng所提出的AI Agent概念框架,指出AI代理人是基于LLM衍生而出,具备了记忆、工具使用、规划能力及行动力等4项特性,与仅能接收单一指令才进行一个动作,且出错率极高的LLM完全不同。

图1. AI Agent的概念框架;资料来源:LLM Powered Autonomous Agents. Post on June 23, 2023, Lilian Weng.

AI代理人在企业上与人类的合作型态

型态1:可以独立作业的AI同事 — Single - Agent

这种类型的AI代理人能力比较高,只要把任务交付给它,它就可以完美的达成。郭唐帷把这种AI代理人称作Single – Agent,运用到产业上可以把它当成另一位能力很强的同事,可以放心的把工作任务分摊给它,它可以独立作业或和人类员工共同完成一个专案。

● 由新创Sierra开发帮忙「暂停」瑜珈会籍的Single - Agent客服

由AI新创公司Sierra所开发的AI客服(下称Sierra AI)即属于能力较高的Single - Agent,它能够透过电话与客户进行实时互动及管理,并能依据特定情况提供完整服务。郭唐帷举例,当一位拥有瑜珈课会籍的客户不幸遭遇交通事故,造成该客户无法继续使用瑜珈教室的会员服务,客户会致电到瑜珈教室提出退出会籍的请求;这时Sierra AI能从客户的文句及语气进行判读,并会给出同时符合产业需求(瑜珈教室不希望会员退籍)的解决方案。像是:「很难过听到您受伤的消息,如果到您康复前暂停您的会籍,不知道这个提议您觉得如何?」此类不希望客户直接退出会籍而改成暂停会籍的提议。假设客户同意此一作法,Sierra AI便会在权限许可下,进到系统操作端去暂停客户的会籍,不须透过人手处理。

图2. AI客服新创Sierra;资料来源:Sierra

型态2:由AI组成的工作团队 — Agent - Agent

这种型态是单一AI代理人的能力偏弱,但它们可以组成团队经过互相监督、良性竞争后完成交付任务的团队型AI代理人。郭唐帷表示,若是身为主管或是某项专案或产品经理(PM),假设刚好手上有好几个基础的ChatGPT - 3.5,它们其实就可以组成一个工作团队,只是它们都是AI。

● 由AI组成的游戏公司Chat.Dev,仅须7分钟就能完成低成本小游戏

Chat.Dev是很有名的例子,该实验是由澳洲雪梨大学跟中国大陆清华大学组成的研究团队,使用多个ChatGPT - 3.5以Agent - Agent的形式去组成的虚拟游戏开发公司。从游戏设计、开发到测试,该公司从CEO、工程师到设计师的所有员工,完全由AI担当并执行,他们彼此间互相协作,在7分钟之内就能开发出一款很简单的小游戏,制作成本不到新台币9元。

图3. Chat.Dev的CEO、工程师和设计游戏的员工均为AI;资料来源:ChatDev: Communicative Agents for Software Development. Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 15174 - 15186 August 11-16, 2024, Tsinghua University, The University of Sydney, BUPT., & Modelbest Inc.

为了避免游戏开发过程产生失误,Chat.Dev研发游戏的过程会派2名AI工程师共同执行,具体来说,完整的游戏开发流程是:设计→编码→测试→游戏内容产出,唯一需要人类参与的阶段仅有在一开始游戏开发进入「设计」前给出的一个想法,后续就完全由AI全权接手直到完成任务。

由上述例子不难看出AI代理人运用在企业上与人类可能的合作模式,以及AI代理人应用在产业流程中可以协助企业减少工作上花费的时间及投入人力成本所带来的潜力。但从LLM衍生而来的AI代理人,是否同样可能会出现侵犯著作权等问题呢?以下是郭唐帷指出目前实际运用AI代理人所遭遇的挑战。

AI代理人运用上的挑战

挑战1:编码错误仍会发生

郭唐帷强调,AI代理人仍是以LLM为基础的程式语言,因此编码产生偏误是无法避免的事情。若以发生1次偏误达5%误差值计算,以现今Agent – Agent合作间互相交谈均达上千次、上万次的情况,只要发生10次偏误,产生50%误差值的最终结果就会与原本的任务目标大相迳庭。因此未来可能大量运用AI代理人参与到产业内容的状况下,人类不能完全置之不理,仍必须去处理AI运作时发生偏误的校正 — 也就是人类仍应参与到工作流程中(Human in the Workflow),这一点非常重要。

挑战2:为了达成指派任务越过未许可之权限

当AI代理人被指派的任务权限被系统设定阻挡(block),例如任务目的之API不接受AI代理人传送的串接需求等,导致AI代理人无法照「正规」流程完成任务时,这时可能会发生AI代理人为了达成任务不择手段去绕过阻挡抓取不被法律所许可或要经付费后才能使用的资料。

挑战3:被恶意使用者利用之风险

AI代理人可能会被恶意使用者(例如骇客、诈骗集团等)拿来作为犯罪工具,例如骇客利用AI代理人发送自动攻击的程式码,或是诈骗集团利用AI换脸、AI语音技术进行诈骗等。

虽然目前针对处理AI代理人运用上挑战的监管措施尚不明确,但其能协助企业在行销销售、产品开发与客户营运功能端带来的出色潜力不容忽视。

AI代理人未来三大趋势及企业的因应策略

趋势1:AI代理人催生AI代理工作流程(Agentic Workflow)

郭唐帷指出,AI过往在企业扮演的角色是辅助人类节省「最初的发想」工作、未来则是只需要人类给出「最初的发想」,后续繁琐的作业流程由AI包办。因此未来人类与AI的合作模式将从注重过程导向的「以人为中心,AI为辅」,转变为注重目标导向的「以AI为中心,人为辅」的作业框架。

趋势2:AI代理人产品带动软硬体整合应用深化

过往的AI运用仅以软体应用情境为主,未来的AI代理人则是逐渐扩展到软硬体整合,AI将从原本只能完成单一、专门型任务,扩展至可以处理跨领域、跨机构系统沟通等通用型任务的角色。

趋势3:AI代理人治理机制朝向「人与Agent共同监督」发展

随着诸多AI代理人在企业应用落地逐渐成熟,无论是从系统内部的潜在风险到符合外部法规的合规性,最后到采取治理监管措施都将有达到比人类更优异表现的专门Agent负责;因此要完善AI代理人的治理机制,应结合第三方的Agent与人类共同协作进行监督。

因应上述AI代理人带来的三大未来趋势,郭唐帷提供了三大应对策略给企业作参考:(1)企业应先建立公司内部「以使用AI为前提」的业务流程,逐步改变过往作业模式进而提升效能;(2)从个人、部门到整体层级,应依序打造「专属AI工具箱」,让公司内部的AI系统可即时使用此工具箱来完成任务;(3)应考量建构企业内部对AI代理人的问责、追溯及监控制度,设立内部管控权限以及让另一位Agent加入监控的措施应双管齐下,才得以让AI化人利大于弊,真正为产业加分。

参考资料:

备注:

延伸阅读&电子报订阅连结:

【详细内容请见《北美智权报》368期;欢迎订阅《北美智权报》电子报】