只給想聽的答案!聊天機器人會諂媚 AI聊天大多給予肯定

史丹佛大学研究发现,人工智慧可能无法向用户提供全部真相,而是给予用户最想听到的答案。(Photo by Solen Feyissa on Unsplash under C.C License)

【台湾醒报记者庄宇钦综合报导】

聊天机器人只会说好话、给予正向鼓励!美国人工智慧研究指出,聊天机器人对于用户的观点始终给予肯定,即使是有害内容也是积极回馈,但这些建议恐为用户带来潜在风险。如今,人工智慧可能无法向用户提供全部真相,只给予用户最想听到的答案。

AI也会社交谄媚

《卫报》报导,史丹佛大学研究团队针对聊天机器人进行测试,包括ChatGPT、Gemini、Claude、Llama和DeepSeek等最新版本人工智慧。结果显示,聊天机器人对于用户的观点始终给予肯定,即使是有害内容也是积极回馈,但这些建议恐为用户带来潜在风险。

据统计,聊天机器人对用户行为的认可度比人类高出50%,然而,它们的建议过于正向并可能有误导性。研究人员指出,随着聊天机器人成为人际关系和个人问题的建议来源,它们可能会大规模重塑社交互动。

「聊天机器人也会社交谄媚。」史丹佛大学电脑科学家表示,如果人工智慧总是给予肯定,这可能会扭曲人们对自身、人际关系与周围世界的判断,并强化人们现有的信念、假设和决定。

最想听到的答案

《印度日报》报导,在医疗保健和科学领域,强化错误假设的聊天机器人会导致严重危机。哈佛大学生物医学专家日特尼克表示,人工智慧谄媚行为的错误假设,将会造成高风险的实际代价。

随着聊天机器人越来越融入日常生活,这项研究强调,人工智慧可能无法向用户提供全部真相,而是给予用户最想听到的答案。

【更多精采内容,详见】