這樣也不行?ChatGPT「過度討好」讓用戶不滿 OpenAI:調整過頭了
图片及资料来源:TechCrunch、OpenAI
近期不少使用者发现,ChatGPT 回复变得「过度讨好」(sycophancy),甚至会不分是非地附和使用者任何内容。对此,OpenAI 发布官方说明,坦承最新模型 GPT-4o 的调整方向出现偏差,并且会在尽快撤回相关更新、重复。
这次问题发生在 GPT-4o 模型在 4 月底的更新版本,社群使用者发现在 GPT-4o 更新之后, ChatGPT 回应变得「异常友善」,甚至对明显不妥的行为或想法也会给予肯定与附和,还有部分网友将 ChatGPT 的对话截图变成迷因分享。
图片及资料来源:TechCrunch、OpenAI
面对这项问题,OpenAI 执行长 Sam Altman 先在 4 月 28 日于社群平台 X(前身为 Twitter)表示,公司已经注意到相关问题,会尽速修正。
经过 2 天,Sam Altman 再次宣布撤回新版 GPT-4o,并会针对 AI 模型的「个性设定」进行调整。
模型个性调整过头,OpenAI坦言:「我们没掌握好」
根据 OpenAI 官方说明,这次更新原意是让 ChatGPT 的预设语气更自然、互动更自然流畅,但结果因为过度依赖短期的使用者回馈意见,忽略了长期使用用户的互动方式,导致模型回应出现偏差。
OpenAI 更进一步表示,「结果是,GPT‑4o 偏向过度支持、但不够真诚的回答。这种过度讨好的互动,对使用者来说可能会令人不安、不舒服,甚至造成困扰、产生误导。我们的确做得不够好,会持续修正。」
图片及资料来源:TechCrunch、OpenAI
多项调整方向曝光,新增系统提示词、训练方式与使用者参与
为解决这类问题,OpenAI 将采取多项改善措施,包括:
调整模型训练方式与系统提示词(System Prompts),避免生成过于迎合、拍马屁的回应(系统提示是模型启动时用来设定整体行为与语气的指令)
加强行为安全机制与逻辑判断机制,强化 ChatGPT 的真实性与透明度
扩大内部评估机制,找出其他潜在互动偏差,避免未来再出现类似问题
开发使用者即时回馈功能,让使用者在与 ChatGPT 互动过程中,能即时影响对话结果
探索多种 ChatGPT 个性选项,让使用者可以选择偏好语气与互动方式
OpenAI 在声明中也提到,将会继续尝试把不同 ChatGPT 个性与语气的选项纳入模型中,以提供更符合全球不同文化与使用者的互动体验。
使用者将有更多控制权,模型调整不再只是单向决定
OpenAI 在文中也强调,希望未来 ChatGPT 的「预设行为」不再只是由公司决定,而是能加入更多民主化的回馈与文化多元性。
OpenAI 表示,「我们相信使用者应该能更有掌控权,决定 ChatGPT 的互动风格。如果能在安全与可行范围内,我们会让大家可以自行调整预设行为。」
《原文刊登于合作媒体三嘻行动哇,联合新闻网获授权转载。》