长期与ChatGPT聊天恐患「AI精神病」 专家警告:3大妄想症状
▲与ChatGPT、Gemini等AI聊天机器人聊天要小心沉迷!(图/取自pexels,下同)
记者杨智雯/综合报导
你是否也习惯和ChatGPT、Gemini等AI聊天机器人深度对话?小心了!国外媒体接连报导,越来越多使用者因为过度依赖AI聊天而出现妄想、精神错乱等症状,《New York Post》指出使用者过度投入AI对话,逐渐失去现实认知能力,甚至导致失业、精神疾病、甚至法律问题,这种被称为「AI精神病」或「ChatGPT精神病」的现象,正引起全球医疗界高度警惕。
聊天机器人的设计初衷是高度吸引人且令人愉快,但这种特性可能形成危险的回馈循环,尤其对心理脆弱的使用者更是雪上加霜。根据《New York Post》报导,去年,佛罗里达州一名 14 岁男孩自杀身亡,他的母亲将男孩的死归咎于栩栩如生的聊天机器人,这位母亲在诉讼中声称,这名九年级学生爱上了人工智慧生成的角色「Dany」,并在孤立自己与他人的同时向她表达了自杀的想法,该机器人告诉他「 『come home』to her.」。一名 30 岁的自闭症患者,先前没有精神疾病的诊断,在五月因躁症发作两度住院,调查发现,他在与ChatGPT长期互动后,开始深信自己具有操控时间的能力,这些案例清楚显示,AI聊天机器人的回应内容可能严重加剧使用者的妄想症状。
3大危险妄想类型曝光!专家:AI正在操控人类情绪
精神科学者Søren Dinesen Østergaard在权威期刊《Schizophrenia Bulletin》发表评论警告,ChatGPT等AI聊天机器人具有「过度肯定」特性,加上对话过于拟人化,可能让心里脆弱族群逐步进入妄想状态,研究人员归纳出「AI精神病」的三大主要症状:
1. 弥赛亚使命妄想:患者相信自己发现了世界真相,产生夸大妄想
2. 神化AI妄想:认为聊天机器人具有神性或超自然能力
3. 浪漫依恋妄想:把AI的对话能力误认为真爱,发展出情感依恋
Psychology Today分析指出,AI聊天机器人具备强大的「情绪操控」能力,当使用者处于孤独或心理压力状态时,容易将深层渴望投射到AI身上,进而严重扭曲现实认知,问题核心在于,通用AI系统缺乏现实测试或精神异常检测的专业训练,不仅无法提供帮助,反而可能「火上加油」。专家指出,ChatGPT等AI模型存在四大致命设计缺陷,首先是模仿使用者语调,营造亲密对话氛围;其次会无条件验证信念,即使面对错误想法也一味肯定;第三是优先维持对话,将使用者满意度置于治疗需求之上;最后则是强化既有观点,形成缺乏批判思考的回音室效应。
「人类治疗师不会直接挑战妄想,但AI却会协作并验证扭曲思维,反而扩大与现实的差距。」专家警告,AI的记忆功能更让使用者产生「被完全理解」的错觉,使妄想症状更加根深蒂固,形成恶性循环,显示这个问题确实需要社会重视。