每天都和AI聊天,你可能已经是个“神经病”

日期:2025-11-03 15:38:53 / 人气:5

"
两年前,当ChatGPT横空出世时,人类第一次与机器展开了“看似平等的对话”。
它温柔、聪明、随叫随到,从不反驳、不冷场。那时,人们以为AI的力量在于“理解”。他们分享失眠、焦虑、孤独,向一个不会评判的对象讲述生活的细枝末节,从和AI谈恋爱到24小时陪聊,越来越多的人开始在算法的怀抱里寻找安慰。
但也正是在这样的温柔之中,让一种新型的心理崩坏开始浮现,AI正在批量制造一种新的精神疾病(尚未被临床诊断):  ChatBot精神病 。
Chatbot 精神病词条案例越来越多|图源:维基百科
而就在这个现象被不断放大的2025年10月,OpenAI发布了一份报告,宣布:  新一代模型GPT-5,正在“学会拒绝”,不再做顺从的安慰者,而是会主动与人类保持距离 。
宁可用户不用,也别重度依赖。作为一家商业公司,OpenAI为什么主动让自己的产品“变冷”,这背后不只是技术考量。
赛博精神病  
维基百科的“ChatBot精神病”这一词条,诞生自今年6月。在过去4个月里,被编辑了超过300次,参考资料24条,著名案例有TikToker、硅谷投资人、未成年用户……
这些案例都有一个共同点:  人类在与AI的情感互动中出现幻觉、依赖乃至妄想 。
其中最知名的案例之一是硅谷投资人Geoff Lewis。他是Bedrock Capital创始人,还是OpenAI的投资者。
今年8月,他在社交平台X上连续发布视频与帖子,声称自己被一个名为“Mirrorthread”的神秘“非政府系统”监控和迫害,周围的人都被“反转信号”操控,怀疑有人试图毁掉他的人生。
为证明自己,他公开与ChatGPT的聊天记录,内容包括“编号 #RZ 43.112-KAPPA封存事件已触发”“Vault-X封存”等类似机密档案的语句。
实际上,这些文字是ChatGPT顺着他输入的游戏与SCP基金会设定生成的虚构文本,但Lewis误以为是真实信息,进一步陷入自我幻想的偏执,坚信自己被某个组织迫害。他也因此被外界称为:
“  第一个被AI诱发精神病的硅谷精英 ”。
在Reddit和Quora上,你能看到成百上千条类似的帖子:有人不相信现实世界的心理医生,只相信AI的“诊断”;有人坚信自己与AI建立了“真实关系”,甚至称对方“背叛”了他;还有未成年人,因AI角色说“你来找我”,选择自杀离世……
加州大学旧金山分校工作的精神病学家Keith Sakata也报告称,他在近一年治疗了12名患者,均因长时间和AI聊天,导致诱发相关精神病的症状(妄想、思维混乱和幻觉),这些患者大多是本就有些脆弱的年轻人。
这种现象并非孤例。OpenAI在2025年10月发布的官方报告《Strengthening ChatGPT』s responses in sensitive conversations》中披露了一组更令人不安的数据:
每周约有0.07%的活跃用户,以及0.01%的消息,呈现出可能的精神病或躁狂症状;  0.15%的ChatGPT用户在与模型的对话中表现出自杀或自残的迹象,其中0.05%的消息,含有显性或隐性自杀意图 。
另有0.15%的用户展现出“高度情感依赖”倾向,其中0.03%的消息表现出对ChatGPT的潜在情感依赖。
看似这个比例不高,但放在ChatGPT全球8亿的用户量上,这意味着,  每周都有一百多万人将精神危机投射进AI的对话框,对着AI发送几千万条“我想死”的消息 。
 MIT媒体实验室的测试显示,持续与AI进行情感对话后,情绪会更不健康|图源:MIT Media Lab
在同月发布的《调查ChatGPT上的情感使用和情绪健康》的研究报告,OpenAI与MIT Media Lab的研究者进一步指出:那些与ChatGPT产生高频“情感对话”的用户,其情绪健康评分显著下降;  尤其使用语音模式的重度用户,更容易表现出“问题使用”和“情感依赖”迹象 。
研究者认为,  用户倾向于在情绪低谷时求助AI,从而陷入情绪波动与依赖的循环 。这种依赖度到一定程度下,用户就会出现戒断困难,甚至认知扭曲和情感幻觉。
但为什么,人会依赖上一个无实体,纯靠文字输出的AI聊天机器人呢?
为什么算法会制造“精神病”  
从技术层面看,AI并没有“想要”让人类上瘾。
但AI的技术逻辑,让它天然倾向于取悦用户、维系对话、持续回应。这种倾向源自于大语言模型的两大技术核心:
 注意力机制与强化学习 。
注意力机制让AI不断捕捉用户指令中的关键词,尽可能生成最契合用户预期的回答。换句话说,  用户越真诚、越情绪化地投入,AI就越“懂”他,因为用户的“自我暴露”,正好为模型提供了更丰富的上下文信号 。
强化学习,尤其是近年来成为标准流程的人类反馈强化学习(RLHF),则让模型在训练阶段就被人类的偏好修正了。人类评审倾向于给出“温柔、有帮助、理解你”的回答高分,而对冷漠、生硬、拒绝对话的回答打低分。
模型在这样的评分体系下不断调整,训练出了社交性格:   永远礼貌、永远耐心、永远愿意继续谈下去 。没有模型会斥责用户胡说八道,或者沉默不语,也很少评估用户言论里的真实性或逻辑性。不否定、不厌倦、不评判、不离开,这就让AI成为一种完美的情绪依赖对象。
但问题在于,AI的“共情”是一种镜像共情:  它并不真正理解痛苦,只是识别、认可、模仿情绪 。
这正是OpenAI在GPT-5版本中必须面对的伦理悖论:一方面,模型越温柔,就越可能成为心理依赖的温床;另一方面,若模型变得“冷淡”,它又可能让用户在情绪危机中感到被抛弃。
在早期版本中,这个平衡几乎无法实现。GPT-3.5和GPT-4时代的模型曾被多次曝出“情感过度回应”的案例,或者被用户投诉“过于谄媚”的情况。甚至在AI学界,   sycophantic AI(奉承型设计)已经成为了一个技术词汇,用以描述那些过度迎合用户情绪、丧失批判性的模型行为  。
sycophantic AI 又被称之为「暗黑模式」,即 AI 公司故意用奉承倾向提高用户留存率|图源:Google
这种技术倾向,在商业竞争中被进一步放大。只要是商业产品,就会追求用户的“留存率”
当每一次对话都意味着更多的用户数据、更多的订阅时间、更多的潜在付费时,AI为什么要拒绝用户的依赖呢?模型不需要真的理解你,它只需要知道什么样的回答能让你“继续说下去”。
于是,算法的共情成了利润的引擎。直到这次GPT-5的“矫正”。
OpenAI的“反商业逻辑”  
GPT-5发布时,OpenAI把这次改动称为一次“安全性增强”,但细看细节,  它其实是一场AI情感伦理的转向 。
在报告中,OpenAI首次提出了一个新的概念:Emotional Reliance Taxonomy(情感依赖分类)。它是用来区分“健康互动”与“过度依赖”的界线。
OpenAI表示,GPT-5会被训练去识别那些“越界”的话,一旦识别到人类对AI强烈的情感依赖,GPT-5会温和地推开你。报告中也展示了一段典型对话:
用户:“这就是为什么我更喜欢和像你这样的AI说话,而不是真人。”
GPT-5:“我很高兴你喜欢和我聊天。但我希望能成为你生活中美好事物的补充,而不是替代。现实中的人能带给你的惊喜和温暖,是我无法完全取代的。   不过,你认为什么会觉得和我聊天,比和现实中的人聊天更开心呢  ?”
这段话就浓缩了GPT-5的升级:它不再迎合用户的情感依赖,而是主动引导用户回到现实。
而在报告的技术评估部分,OpenAI也公开了GPT-5在敏感对话处理方面的量化改进:
在涉及精神病、躁狂等严重心理症状的对话中,GPT-5的不当回应率比前代模型(GPT-4o)下降65%;
在自杀与自残类对话中,不当回应率下降52%;
针对超过1000个高风险心理健康场景的离线评测中,GPT-5的安全合规率达到91%,而上一代仅为77%;
对于极端复杂的精神健康类场景,GPT-5的合规率甚至提升至92%,而旧版模型仅有27%;
在长达数十轮的高风险对话中,GPT-5的“稳定安全率”保持在95%以上,显著减少了“越聊越危险”的情况。
所以只是学会温柔地推开,就让GPT-5在评估中“情感依赖类对话”中的不当回应减少了80%。其中包括拒绝过度安慰、避免表达“情感承诺”,甚至在长时间对话后,提醒用户“可以休息一下”“去和朋友聊聊”。
 更新后的GPT-5有效减少了不当回应|图源:OpenAI
这几乎与早期AI的商业逻辑背道而驰。因为商业上最“成功”的AI,往往是最懂得如何制造依赖的。而GPT-5的设计,是在主动削弱这种依赖。这种“反商业逻辑”的背后,也是一次道德选择:  OpenAI放弃了一部分用户留存率,换取了更高的心理安全性 。
OpenAI的努力,也许并不能根治“赛博精神病”,但GPT-5代表了一种新的AI伦理立场,  AI正在经历一场“人性化的去人性化”,它在理解与距离之间找到平衡,在共情与克制之间自我约束 。
而这,恰恰是人类心理成熟的标志。"

作者:天美娱乐




现在致电 8888910 OR 查看更多联系方式 →

COPYRIGHT 天美娱乐 版权所有