📢 转载信息
原文链接:https://www.technologyreview.com/2025/12/30/1129392/book-reviews-ai-therapy-mental-health/
原文作者:Becky Ferreira
我们正处在全球心理健康危机之中。世界卫生组织的数据显示,全球有超过十亿人患有精神健康问题。在许多人群中,尤其是年轻人,焦虑和抑郁的患病率正在上升,而自杀每年在全球造成数十万人的死亡。
鉴于对可及和负担得起的心理健康服务的明确需求,人们自然将目光投向人工智能寻求可能的缓解。数百万用户已经在积极地从OpenAI的ChatGPT和Anthropic的Claude等流行聊天机器人,或Wysa和Woebot等专业的心理学应用中寻求治疗。在更广泛的层面上,研究人员正在探索人工智能利用可穿戴设备和智能设备监测和收集行为及生物识别观察数据的潜力,分析海量临床数据以获取新见解,并协助人类心理健康专业人员防止职业倦怠。
但到目前为止,这场在很大程度上不受控制的实验产生的结果好坏参半。许多人发现基于大型语言模型(LLM)的聊天机器人带来了慰藉,一些专家认为它们作为治疗师具有潜力,但其他用户却因人工智能的幻觉和过度奉承而被带入妄想的螺旋。最悲惨的是,多个家庭声称聊天机器人导致了他们亲人的自杀,引发了对这些工具责任公司的诉讼。十月份,OpenAI首席执行官Sam Altman在一篇博客文章中透露,有0.15%的ChatGPT用户“进行了包含明确自杀计划或意图的对话。”这意味着仅一家软件系统,每周就有大约一百万人向其倾诉自杀意念。
2025年,随着关于人机聊天机器人关系、许多LLM护栏的脆弱性以及与那些有经济动机收集和利用敏感数据产出数据的公司分享深度个人信息的风险的大量报道涌现,人工智能治疗的现实后果以意想不到的方式凸显出来。
几位作者预见到了这个拐点。他们适时的著作提醒我们,尽管现在感觉像是突破、丑闻和混乱的模糊状态,但这个令人迷失方向的时期植根于关怀、技术和信任的更深层历史。
LLM常被描述为“黑匣子”,因为没有人确切知道它们如何产生结果。指导其输出的内部运作机制是不透明的,因为它们的算法极其复杂,训练数据极其庞大。在心理健康领域,人们常因类似的原因将人脑描述为“黑匣子”。心理学、精神病学及相关领域必须应对无法清晰看到他人内心,更不用说精确查明其痛苦根源的不可能性。
这两种类型的黑匣子现在正在相互作用,产生了不可预测的反馈循环,这可能会进一步阻碍人们对自身精神健康问题的根源以及可能解决方案的清晰认识。对这些发展的担忧很大程度上与人工智能近期的爆炸性进步有关,但它也重新唤起了几十年前的警告,例如麻省理工学院计算机科学家约瑟夫·魏岑鲍姆(Joseph Weizenbaum)早在20世纪60年代就反对计算机治疗。
How AI Could Save Lives
Charlotte Blease
医学哲学家夏洛特·布利斯(Charlotte Blease)在其著作《Dr. Bot: Why Doctors Can Fail Us—and How AI Could Save Lives》(机器人医生:为什么医生会让我们失望——以及人工智能如何能拯救生命)中提出了乐观的论点。她的书广泛探讨了人工智能在各个医疗领域可能产生的积极影响。尽管她对风险保持清醒的认识,警告那些期望“对技术大加赞美”的读者会失望,但她认为这些模型可以同时帮助减轻患者的痛苦和医疗人员的职业倦怠。
布利斯写道:“卫生系统正因患者压力而崩溃”,“对更少的医生施加更大的负担,就为失误创造了完美的培养皿”,“由于医生明显短缺和患者等待时间增加,我们中的许多人都感到极度沮丧。”
布利斯认为,人工智能不仅可以减轻医疗专业人员的巨大工作量,还可以缓解一些患者与护理人员之间一直存在的紧张关系。例如,人们常常因为受到医疗专业人员的恐吓或害怕被评判而不敢寻求必要的治疗;对于有心理健康挑战的人来说尤其如此。她认为,人工智能可以让更多人分享他们的担忧。
但她也意识到,这些潜在的优势需要与主要的缺点进行权衡。例如,根据一项2025年的研究,人工智能治疗师可能向人类用户提供不一致甚至危险的回应,它们还引发了隐私担忧,因为人工智能公司目前不受与持牌治疗师相同的保密和HIPAA标准的约束。
虽然布利斯是该领域的专家,但她写这本书的动机也是个人的:她有两个患有不治之症肌肉萎缩症的兄弟姐妹,其中一人等待了数十年才得到诊断。在她写书期间,她还在短短六个月内亲眼目睹了她的伴侣因癌症去世和父亲因痴呆症去世。“我亲眼目睹了医生的才华和医护人员的善良,”她写道。“但我同时也观察到了护理中可能出错的地方。”
Daniel Oberhaus
丹尼尔·奥伯豪斯(Daniel Oberhaus)引人入胜的著作《The Silicon Shrink: How Artificial Intelligence Made the World an Asylum》(硅谷心理医生:人工智能如何将世界变成疯人院)也存在着类似的张力。奥伯豪斯从一个悲剧性的起点开始:他失去了妹妹,她因自杀而离世。当奥伯豪斯进行“典型的21世纪哀悼过程”,梳理她的数字遗物时,他想知道技术是否可以减轻多年来困扰她的精神问题的负担。
他写道:“所有这些个人数据可能包含重要线索,她的精神卫生提供者可以利用这些线索提供更有效的治疗。如果运行在她智能手机或笔记本电脑上的算法可以利用这些数据来了解她何时处于困境,是否能及时干预从而挽救她的生命?即使如此,她是否希望这样做?”
数字表型测量的概念——即挖掘一个人的数字行为以获取有关痛苦或疾病的线索——理论上看起来很优雅。但如果将其整合到精神病学人工智能(PAI)领域,情况可能会变得复杂,而PAI的范围远远超出了聊天机器人治疗。
奥伯豪斯强调,数字线索实际上可能会加剧现代精神病学的现有挑战,精神病学仍然对精神疾病和障碍的根本原因基本不确定。他说,PAI的出现“相当于将物理学嫁接到占星术上”。换句话说,数字表型测量产生的数据与行星位置的物理测量一样精确,但它被整合到一个更广泛的框架中——在这种情况下是精神病学——而这个框架像占星术一样,基于不可靠的假设。
奥伯豪斯使用“滑动精神病学”(swipe psychiatry)一词来形容基于行为数据向LLM外包临床决策的做法,他认为这种方法无法摆脱精神病学面临的基本问题。事实上,它可能会加剧这个问题,因为人类治疗师的技能和判断力会随着他们越来越依赖人工智能系统而退化。
他还以过去疯人院(asylums)作为参照点,在那些被监禁的病人失去了自由、隐私、尊严和生活主权的地方。他认为,现代PAI可能会催生一种更隐蔽的数字囚禁形式。LLM用户已经通过向聊天机器人透露敏感个人信息来牺牲隐私,这些信息随后被公司收集和货币化,从而助长了一种新的监控经济。当复杂的内心世界被转化为为人工智能分析量身定制的数据流时,自由和尊严就受到了威胁。
人工智能治疗师可能会将人性简化为预测模式,从而牺牲了传统人类治疗师所期望的亲密、个性化的关怀。奥伯豪斯写道:“PAI的逻辑导向的未来,我们都可能发现自己是算法疯人院的病人,由数字看守人管理。”“在算法疯人院中,不需要窗户上的横杆或白色软垫的房间,因为没有逃脱的可能。疯人院已经无处不在——在你的家中和办公室、学校和医院、法院和兵营里。只要有互联网连接的地方,疯人院就在等待着。”
A Critical Analysis of
AI Mental Health Treatment
Eoin Fullam
伊恩·富勒姆(Eoin Fullam)是一位研究技术与心理健康交叉领域的学者,他在《Chatbot Therapy: A Critical Analysis of AI Mental Health Treatment》(聊天机器人治疗:人工智能心理健康治疗的批判性分析)一书中也表达了同样的担忧。这本书是一本晦涩的学术入门读物,它分析了人工智能聊天机器人提供的自动化治疗的潜在假设,以及资本主义激励如何可能腐蚀这类工具。
富勒姆指出,新技术背后的资本主义心态“往往导致可疑的、非法的和违法的商业行为,其中客户的利益次于市场主导地位的策略。”
富勒姆写道,这并不意味着“治疗机器人制造商必然会为了市场主导地位而进行违背用户利益的邪恶活动。”
但他指出,人工智能治疗的成功取决于赚钱和治愈他人的不可分割的冲动。在这种逻辑下,剥削与治疗相互助长:每一次数字治疗都会产生数据,这些数据又为系统提供燃料,而该系统在无偿用户寻求治疗时获利。治疗效果看起来越好,这个循环就越根深蒂固,使得区分关怀与商品化变得更加困难。“用户从应用程序中获得治疗或其他心理健康干预的益处越多,”他写道,“他们遭受的剥削就越多。”
这种经济和心理上的“衔尾蛇”(ouroboros,自食其尾的蛇)感,是弗雷德·伦泽(Fred Lunzer)的处女作小说《Sike》中的一个中心隐喻,这位作者在人工智能领域有研究背景。
《Sike》被描述为“一个男孩遇到女孩遇到人工智能心理治疗师的故事”,讲述了年轻的伦敦人阿德里安(Adrian)的故事,他靠代写说唱歌词为生,与热衷于在测试阶段发现有利可图技术的商业专业人士马奇(Maquie)的浪漫关系。
Fred Lunzer
书名指的是一款名为Sike的炫酷商业人工智能治疗师,它被植入智能眼镜中,阿德里安用它来审视他无数的焦虑。“当我注册Sike时,我们设置了我的仪表盘,一个宽阔的黑色面板,像飞机的驾驶舱,显示我的每日‘生命体征’,”阿德里安叙述道。“Sike可以分析你的行走方式、眼神交流方式、你谈论的内容、你穿的衣服、你小便、大便、大笑、哭泣、亲吻、撒谎、抱怨和咳嗽的频率。”
换句话说,Sike是终极的数字表型测量工具,不断详尽地分析用户日常经历中的一切。有一个转折,伦泽选择将Sike定位为一种奢侈品,仅供那些能承担每月2000英镑价格的订阅者使用。
从他为一首热门歌曲的创作中获得现金后,阿德里安开始依赖Sike作为他内心世界和外部世界之间的可信中介。这部小说探讨了这款应用对富人健康的影响,讲述了那些自愿将自己置于奥伯豪斯所描述的数字疯人院的精品版本中的富人的故事。
《Sike》中唯一真正的危险感涉及到一种日本的酷刑蛋(别问了)。这部小说奇怪地回避了其主题可能带来的更广泛的反乌托邦影响,转而关注在高档餐厅和精英晚宴上的醉酒交谈。
人工智能治疗师的突然崛起看起来非常未来主义,就好像它应该在另一个时代发生,那时街道自己被清洁,我们通过气动管道环游世界。
Sike的创造者在阿德里安看来只是“一个很棒的人”,尽管他有着通过训练该应用程序来缓解整个国家疾病的技术救世主愿景。似乎总有什么事情会发生,但最终却什么都没发生,留给读者一种未解决的感觉。
虽然《Sike》设定在当代,但人工智能治疗师的突然崛起——无论是在现实生活中还是在小说中——都显得惊人地未来化,仿佛它应该发生在另一个时代,那时街道会自我清洁,我们通过气动管道环游世界。但心理健康和人工智能的这种融合已经酝酿了半个多世纪。例如,深受爱戴的天文学家卡尔·萨根(Carl Sagan)曾设想过一个“由计算机心理治疗终端组成的网络,有点像一排排大型电话亭”,以应对日益增长的心理健康服务需求。
奥伯豪斯指出,可训练神经网络的早期应用之一,即感知器(Perceptron),并非由数学家发明,而是由康奈尔航空实验室的心理学家弗兰克·罗森布拉特(Frank Rosenblatt)于1958年发明的。人工智能在心理健康方面的潜在用途在20世纪60年代被广泛认识,激发了早期的计算机心理治疗师,例如约瑟夫·魏岑鲍姆开发的ELIZA聊天机器人上的DOCTOR 脚本,魏岑鲍姆也出现在本文介绍的所有三本非虚构著作中。
魏岑鲍姆于2008年去世,他对计算机治疗的可能性深感担忧。他在1976年的著作《Computer Power and Human Reason》(计算机能力与人类理性)中写道:“计算机可以做出精神病学判断。它们可以比最有耐心的人类做更多复杂的抛硬币决策。关键在于,它们不应该被赋予这样的任务。在某些情况下,它们甚至可能得出‘正确’的决定——但其基础是任何人都应拒绝接受的。”
这是一个值得铭记的告诫。随着人工智能治疗师的大规模到来,我们看到了它们正在上演一个熟悉的情景:表面上出于良好意图而设计的工具,却与可以剥削、监视和重塑人类行为的系统纠缠在一起。在狂热地试图为急需心理健康支持的患者解锁新机会时,我们可能正在为他们关上其他的门。
贝基·费雷拉(Becky Ferreira)是纽约州北部的一名科学记者,也是《First Contact: The Story of Our Obsession with Aliens》(首次接触:我们对异形痴迷的故事)的作者。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区