ChatGPT語音太逼真 OpenAI開始擔心使用者會「感情依賴」

聊天机器人ChatGPT的新版语音模式模拟人声过于逼真,OpenAI担心会让使用者出现情感依赖。(美联社)

聊天机器人ChatGPT问世以来,席卷全球,而且新版语音模式模拟人声过于逼真,可能让用户出现「依赖」人工智慧(AI)工具的疑虑。

有线电视新闻网(CNN)报导,AI科技公司OpenAI推出新版ChatGPT,采用高阶语音模式,声音听起来非常逼真,还可以发出笑声或「嗯」等反应字眼,而且会即时回应、适时打断对话,甚至根据用户说话语气判读情绪,犹如与真人般对话。

据报导,OpenAI今年稍早举行的发表会上宣布ChatGPT升级功能,勾起外界对2013年电影「云端情人」(Her)的记忆,剧中出现的AI女助理,由于过于逼真,导致男主角不知不觉坠入爱河,结果当这位AI女助理坦承与上百位用户谈恋爱,让男主角心碎不已。

随后8日OpenAI公布一份报告,发现用户与ChatGPT近乎真人般的语音模式互动,很容易会陷入以假为真的陷阱:「用户可能会变成与AI建立社交关系,降低他们与他人互动的需求,虽然可能有利于改善社交恐惧症,却也可能影响正常人际关系的发展。」

ChatGPT与其他新科技一样,总是在上市后,才发现许多意料外的后遗症,如果用户过度沉迷与AI机器人聊天,真的可能会误以为与AI建立浪漫关系。

亚利桑纳州立大学(Arizona State University)人际关系教授沙拉比(Liesel Sharabi)接受CNN采访时表示:「企业身肩重大责任,必须彻底负起道德与负责来处理这类问题,尤其目前仍在实验阶段。」并强调:「我确实担心用户可能与无法永久存在且不断进步的AI技术,建立起某种深厚的联结。」

OpenAI表示,随着时间拉长,用户与ChatGPT语音模式互动也可能影响社交正常行为,报告指出:「我们设计的模式是恭顺配合,允许用户随时打断讲话或抢走说话权,虽然符合AI模式,却违反人类社交习惯。」并透露今后将全致力发展「安全」的AI技术,继续研究用户对AI工具的「情感依赖」。

该报告还强调,AI工具宣称可以颠覆人类生活、工作、社交与搜寻方式,但有鉴于AI也会犯错,若用户过度信任AI,取得任何讯息也全盘接受的话,很容易跟着出错而不自知。