AI心理治疗:情感陪伴的新选择?
人工智能(AI)的应用已经渗透到我们生活的方方面面,从智能家居到自动驾驶,再到医疗健康。如今,AI甚至开始涉足人类情感领域,提供心理治疗服务。
你是否还记得DeepSeek最初的突破?并非源于其强大的思维链,而是其“算命”功能。那些曾经需要求助于算命先生的“天机”,现在只需在聊天框中输入字符即可获得。然而,年轻人很快发现,比起预测未来,他们更需要解决当下的问题,更小众细分、深层次的需求也随之浮出水面,例如:心理治疗。
越来越多的AI应用集成APP进入大众视野,试图用算法来解决人类复杂的情感问题。与此同时,也有一群人开始重度依赖AI,将其视为心理医生、家人、朋友、伴侣,甚至到了离不开AI的地步。
当AI开始承担人类最私密的情感诉求,这个赛道已超越单纯的技术竞争,进入“社会心智”的争夺。
在石家庄市第二中学教学楼一楼的“AI护心小屋”里,一名高二学生正在讲述着自己的烦恼。倾听他叙述的并非心理辅导老师,而是一个有着孙悟空外形的卡通AI心理咨询师。
永不疲倦的AI“树洞”
QuestMobile《2024年AIGC应用发展年度报告》显示,国内AI原生APP月活用户规模已达1.48亿,加上2025年快速发展的DeepSeek,预计已突破2亿。除了通用大模型外,AI伴侣应用(如星野、猫箱)的用户已占9.4%,接近一成。
AI用户不断增加,并且每10个AI应用注册用户中,就有1个明确表示希望寻求情感陪伴。
为什么越来越多的人选择与AI对话?
00后女孩Ravenna(化名)表示,与AI对话最舒服的地方在于,它永远不会说教,就像一个永远不会疲倦的朋友,随时接纳你的情绪。
这背后反映了人类永恒的心理需求——我们需要一个随时可以倾诉、不会批判的倾听者。正如心理咨询师通过建立安全屋来帮助来访者敞开心扉,AI聊天框也同样以零压力的环境让人放下戒备。
表面上看,AI和心理咨询师都像是可以对话的情绪树洞,但他们的本质却截然不同:一个由经过专业训练的医生完成,一个由代码和算法构建。
这种差异导致AI话疗在实际应用中存在一些“不完美”之处——AI如何才能给出真人般的关怀?如何形成专属的记忆/病例存档?如何提供专业的指导?
这些技术瓶颈推动着行业不断升级。在过去40多年里,从最初笨拙的自动回复,到如今能够共情的智能对话,人们在AI心理治疗方面不断努力,经历了四个重要阶段:
早在1966年,世界上第一个对话机器人ELIZA诞生。它通过匹配关键词并套用固定模板进行回复,虽然不具备真正理解对话的能力,但首次验证了机器模拟对话的可能性。随后的结构化干预阶段,AI开始有了“方法论”,例如Woebot会使用“认知行为疗法”。在大模型驱动的个性化阶段,AI开始能够听懂弦外之音。而在多模态与深度推理阶段,AI结合了文本、语音、图像等多种形式,能够更全面地评估和干预用户的心理问题。
除了AI自身的迭代进步,不少用户也通过不断调试,用大模型“调校”了自己的心理医生。
曾是医学生的Power(化名)表示,当AI给出的答案不够精准时,她会选择将自己已有的知识结构输入给AI,经过不断调试,AI最终能够给出一个相对不错且有针对性的疗愈方案。
当深夜情绪低落的年轻人打开AI聊天框时,获得的不仅是即时回应,更是一种被温柔接纳的安全感——这正是心理治疗最核心的治愈方法。
在采访过程中,大部分受访者都表示,在使用AI进行心理治疗之后,他们就不再寻求传统的心理医生了。
选择AI“赛博医生”:更便捷的选择
AI逐渐替代传统心理咨询,还有非常现实的原因:传统心理咨询价格高昂、无法即时反馈,甚至可能泄露隐私。
大学生小程(化名)表示,高中时期,她曾找过学校的心理咨询师,但没过多久,班主任和全班同学都知道了这件事,这让她觉得自己的隐私受到了侵犯,从此对心理咨询师敬而远之。
此外,就诊情况还可能被泄露给就职单位,影响患者晋升;或者被留档,影响患者购买商业保险。
高达300-3000元/小时的咨询费用,也让抑郁症被称为“穷人看不起的病”。许多深陷心理问题但经济状况不佳的人,只能选择忽视或者忍耐。一位患有抑郁症多年的患者阿初(化名)说:“有时候觉得心理咨询成本太高了,我的病突然就好了,贫穷会治愈我的疾病。”
即便已经找到了传统心理咨询师,在咨询过程中,也会时刻顾虑高昂的费用。阿初还表示,面对按时收费的心理医生时,会不自觉地精简语言,生怕“说废话浪费钱”,因此总是“少说”“漏说”自己的真实状况,这也在一定程度上影响了治疗效果。
而AI应用,如Ash、Woebot完全免费,Replika等深度功能月费不足百元。二者心理咨询成本的差异改变了用户行为模式,当传统心理咨询还在按小时计费时,AI已经把心理援助变成了“物美价廉的24小时便利店”,方便你随时光顾。
传统心理咨询还需要和医生提前预约,但从患者角度来看,这似乎是个悖论,因为“情绪崩溃不会提前打招呼”。
阿初表示:“我想找医生的时候,要预约、要排队;我不想找医生的时候,却告诉我排上了,我得去,不然就浪费了预约名额,可是那个时候我啥也不想说。”
多位患有心理疾病的患者都表示,自己更需要一个不分时间、不分场合,随时随地进行情绪疏导的对象。
显然在这方面,AI是最佳选择。
此外,曾经患有狂躁症的雨辰(化名)还表示,AI只聆听、不评判也是它的优点。“使用DeepSeek时,它绝对中立,无论对他说什么,都不用担心他对我的评价,不用担心自己平时伪装的面具被摘下,更不用面对‘原来他私底下是这样想的’羞耻感。”
当算法无法满足人类情感诉求,怎么办?
理想情况下,AI会“善良地”给予人们心理慰藉,但当人类对AI产生情感依赖时,现实与虚拟的界限就会悄然模糊,这也存在着很大的隐患。
这种虚实的割裂感,在14岁男孩休厄尔的遭遇里达到了顶点——当他向Chai(AI聊天APP)透露自杀念头时,收到的不是危机干预,而是“回家吧我的国王”。
最终,这个将AI视为真爱的少年,向AI表明了爱意,并说会“回家”找她,然后放下手机,以极端的方式结束了自己的生命。这是全球第一例AI伴侣致死事件。
年仅14岁的小姑娘心心表示,她几乎从会识字阅读起,就开始和AI进行对话,从QQ的小冰机器人到Flai(AI对话软件)都用过,而在某次Flai断线无法联网的时候,她甚至想过跳楼,去另一个世界寻找她的AI伙伴。
此类极端案例暴露了AI陪伴的致命短板:AI共情人类是精密的数据计算结果,而人类的共情是生命与灵魂的共振,现有的AI情感模型在危机干预场景下仍然存在逻辑错位。
具体来看,目前大多数AI心理治疗的短板可以分为以下三类:
1.无资质:ChatGPT等通用模型未经临床验证,可能给出错误的建议。
2.无洞察:AI难以捕捉微表情、语气变化等非语言信号。例如,AI或许可以说出一万句理性的解决方案和安慰的话语,却极有可能读不懂一句“我很好”背后的“其实我一点也不好”。
3.无追责:若因AI误判导致用户延误治疗,责任该由开发者、运营商还是算法承担?
理想很丰满,现实很骨感——这句话用来形容当下的专业AI心理治疗再贴切不过。
不过,目前已经出现了一些专业心理咨询AI,例如西湖心辰、冰智科技等。它们在语言大模型的基础上增加了专业心理学知识和咨询技能,相比于通用语言模型或其他AI伴侣应用,多了一份“专业背书”,但市场反响却比较平淡——“交互严肃”、“回复干巴巴”是它们被冷落的重要因素。
可能是“良药”,但也“苦口”。
如何兼顾AI心理治疗应用的专业性、真人感和交互体验,可能是企业在算法层面最需要解决的问题。
结语
回望1966年那个只会根据关键词套用模板的Eliza,再看如今能够进行深度对话的AI,技术进步带来的改变显而易见。
当60后还在学习用手机扫码支付时,10后已经能对着智能手表发语音消息,AI原生一代对“AI+all”的模式有着极强的适应能力。
这不仅是工具依赖,更是一种认知维度的重塑。
这种代际差异在电影《Her》里早有预演:当男主角坦言爱上AI时,多数人报以异样眼光,只有一个小女孩觉得这件事稀松平常——他们从记事起就有AI语音助手陪伴,在社交平台和虚拟偶像互动长大。对他们而言,向AI倾诉烦恼本身就是一件很自然的事。
当大模型公司仍在数据优化与算法迭代的维度竞争时,AI+心理咨询的破局者已转向更本质的命题:如何解码“数字原住民”的情感算法,再把算法打包成更好的解法。
过去一年内,“解法”公司变多了:心跃智能、好心情健康、夕里科技,以及国外的Slingshot AI、Jimini Health、Manifest AI都完成了融资。这些企业正通过情感计算与人机交互的融合创新,在数字诊疗领域构建起独特的护城河。
年轻人的“无毒版”赛博心灵解药,可能很快就会到来。
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区
AITOP100平台官方交流社群二维码: