摘要:该项目于 2025 年 4 月 15 日首次亮相,由著名精神病学家兼神经科学家 Tom Insel 医学博士担任开场演讲嘉宾。Insel 医生因在心理健康研究和技术方面的杰出成就而广受赞誉,曾担任美国国家心理健康研究院(NIMH)院长,并创办了多家将高科技融入
在今天的专栏中,我继续报道 AI 在心理健康领域的最新趋势,重点介绍斯坦福大学医学院精神病学和行为科学系所开展的一项新举措——AI4MH。
该项目于 2025 年 4 月 15 日首次亮相,由著名精神病学家兼神经科学家 Tom Insel 医学博士担任开场演讲嘉宾。Insel 医生因在心理健康研究和技术方面的杰出成就而广受赞誉,曾担任美国国家心理健康研究院(NIMH)院长,并创办了多家将高科技融入心理健康护理的公司。
这次关于 AI 突破性进展的分析,是我在 Forbes 专栏中持续报道 AI 最新动态的一部分,其中包括识别和解释各种影响深远的 AI 复杂性(详情请见此链接)。
人工智能与心理健康领域的不断拓展
熟悉我关于心理健康领域中 AI 报道的读者可能还记得,我曾在超过一百篇专栏文章中详细探讨并回顾了这一迅速发展的课题的众多关键方面。
这些内容包括对最新具有代表性的研究论文的分析,以及对采用生成式 AI 和 Transformer 大语言模型(LLM)的心理健康治疗相关 APP 和聊天机器人的实用性进行热情评估。我曾在去年 CBS《60 分钟》节目中谈及这些进展,并将这些分析汇编成两本广受欢迎的书籍,展示 AI 如何颠覆并变革了心理健康护理领域。
我满怀乐观地在此分享斯坦福医学院关于 AI4MH 的新举措,并坚信该项目将为我们描绘 AI 在心理健康领域的未来走向及其对社会产生的影响提供另一关键视角。正如 AI4MH 的使命声明所述:
“AI4MH 旨在通过创建和使用负责任的 AI 来变革精神及行为障碍的研究、诊断与治疗。为了实现这一愿景,我们开发面向精神病学专用的 AI 工具,促进其在部门内的应用,推动跨学科合作,并提供最前沿的知识” (来源:斯坦福 AI4MH 官方网站,详情请见此链接)。
感谢我在首次活动中遇到的 AI4MH 组织者,包括精神病学与行为科学教授 Kilian Pohl (Major Labs and Incubator)、精神病学与行为科学助理教授 Ehsan Adeli (Public Mental Health and Populations Sciences)、以及精神病学与行为科学教授 Carolyn Rodriguez (Public Mental Health and Population Sciences)等人,他们以敏锐的远见和坚定的热情推动了这一重要举措。
主题演讲奠定基调
Insel 医生在演讲中详细阐述了当前心理健康护理中 AI 的应用现状,并深刻探讨了这一动态领域未来的发展方向。他的观点强调了一点——我不断强调的那一点:我们现有的心理健康护理方式远远不足,我们需要重新思考和改革现行做法。
心理健康服务的需求正在不断攀升,但在众多方面,高质量治疗师和心理健康顾问的数量严重不足。
令我欣喜的是,Insel 医生将这一直观问题归纳为五个重要因素:
(1) 诊断 (2) 参与 (3) 能力 (4) 质量 (5) 问责
接下来我将对这些关键因素进行概述。
五大关键因素解析
首先,从诊断这个关键因素出发,可能令一些人感到意外的是,心理健康的诊断实际上存在诸多模糊不清之处。一般人倾向于认为存在一种精确且可量化的方法,能对心理健康作出铁板钉钉的诊断,但事实并非如此。如果你翻阅 DSM-5 标准手册,很快会发现诊断过程中的宽泛和不精确之处。由此导致在确诊时缺乏明确性,我们必须认识到这是一项亟待以更严谨、可靠手段解决的重大问题。
关于 DSM-5 以及生成式 AI 如何在执行基于 AI 的心理健康诊断时借力手册内容的详细探讨,请参见此链接。
第二个关键因素是参与。
问题在于,需求或渴望接受心理健康护理的人往往难以轻易获取相关资源。这可能由于费用、物流以及经济和供需等多方面原因。Insel 医生指出,约有 60% 的可能从治疗中获益的人未能接受心理健康护理,因此,大量人群未获得所需帮助。这一问题值得深入探讨,并需动用非传统思维寻找解决方案。
第三个相关因素是能力。
我们没有足够的治疗师和心理健康专业人士,也缺乏相应的设施来满足现有及不断增长的心理健康需求。例如在美国,各类统计显示大约有 200,000 名治疗师和约 100,000 名心理学家,但却要服务近 3.5 亿人口。这一比例显然不足,而且研究表明在职心理健康专业人员工作过载、压力极大,难以稳妥应对可能会严重影响护理质量的超负荷工作。
关于治疗师如何利用 AI 辅助实践,从而使他们能更多关注客户并合理应对工作量激增的报道,请参见此链接。
第四个因素是质量。
从前述因素中可以明显看出质量如何受到潜移默化的影响。如果一位治疗师时间紧迫、力图接诊尽可能多的患者,以期将心理健康护理普及给更多人,质量质量受损的风险便显而易见。就算本着最好的初衷,整体来看,护理质量往往呈现碎片化和偶发性。还有一种反应式质量现象,即在发现质量下降后,短暂出现质量提升,但这种提升很快就消失,然后其余受限的基础设施又会把质量拉回到较随意的水平。
关于如何利用 AI 改善心理健康护理质量的分析,请参见此链接。
第五个因素是问责。
有句著名语录归功于管理大师 Peter Drucker:“凡是能被度量的,就能被管理。” 与之相对的是,凡是不被度量的,必定管理不佳。心理健康护理同样如此。总体而言,关于心理健康疗效的相关数据寥寥无几。更糟的是,基于证据的心理健康护理的采用率极低,使我们对疗效的整体情况知之甚少。
关于如何借助 AI 收集心理健康数据并推动基于证据的护理,请参见此链接以及此链接。
将 AI 融入其中
这场演讲明确指出,当前的心理健康护理体系基本上已处于失衡状态,如果不采取大规模措施,情况只会进一步恶化。
心理健康需求的海啸正向我们袭来,目前的心理健康治疗舰队未能做好充分准备,甚至已在勉强维持生存。
那么,我们能做些什么?
众多相互交织的机遇中,现代 AI 的应用无疑是一大亮点。
先进的生成式 AI 和大语言模型的出现,已经对心理健康咨询产生了显著影响。如今,人们每天都在借助生成式 AI 解决心理健康问题。根据近期《哈佛商业评论》刊登的一项研究显示,生成式 AI 的首要用途现已转向提供治疗相关的建议(我将在即将发布的文章中对此展开报道,请持续关注)。
目前尚无确切数据表明有多少人将生成式 AI 用于心理健康,但从人口层面的探讨中,我们知道例如 ChatGPT 每周活跃用户有 4 亿,而与 Anthropic Claude、Google Gemini、Meta Llama 等相关的用户也可能数以亿计。考虑到可能有相当比例的人正在利用 AI 获取心理健康见解,各种推测和分析可以参见此链接。
为什么 AI 在这一领域如此受欢迎
人们倾向于转向生成式 AI 获取心理健康相关建议,这非常合理。大多数生成式 AI 应用都是免费使用,并且通常全天候开放,无论地球何处都能使用。几分钟内即可注册并立即开始就各种心理健康问题展开交流。
与之相比,寻找并使用人类治疗师则要麻烦得多。首先,你需要找到适合自己的治疗师,并确认其是否符合你的期望;接着,还要签订服务协议、预约,受限于治疗师的可用时间,再加上需要承担使用费用等等——使用人类治疗师存在巨大的摩擦成本。
现代 AI 则几乎不存在这种摩擦。
此外,人们普遍喜欢使用 AI 时那种匿名感。如果你寻求一位人类治疗师,你的真实身份将会暴露给他人,而他人得知你的隐秘信息。而使用 AI 时,用户认为自己基本上是匿名的,AI 也不会将其私人心理健康问题透露给他人。
另一个角度是,与人类治疗师交流通常比与 AI 对话要困难得多。AI 已经过 AI 开发者调教得非常友好,这部分是为了留住用户,因为如果 AI 太过强势,用户可能会转而使用其他供应商的 AI。
判断这一隐性因素也大有区别。你见到的人类治疗师在交流中可能会让你敏感地感受到被评价,例如抬眉或语气严厉。即便这种评价在提供心理健康指导时有其合理性,但理想状态下应以适当的同理心为前提。
而使用 AI 时,这种情况通常不会出现。
大多数生成式 AI 应用的默认模式是避免对你作出评价。这同样是由 AI 制造者有意识地调节(若您有兴趣,请参阅我关于未经过滤、无束缚生成式 AI 对用户可能说的话的分析,见此链接)。
使用 AI 的用户能够完全不感到被评判。当然,有人可能会争论这种方式是否适宜用于心理健康咨询,但重点在于,用户往往更欣赏 AI 所提供的非评判性环境。
值得一提的是,我已证明可以通过提示使 AI 显得更“具有评判性”,并对你的心理健康进行更深入的探讨,从而打破默认的模式,提供较为中肯的评估(参见此链接)。从这个意义上讲,AI 并不会陷入或停留在总是试图讨好用户的模式中,这种模式与适当的心理健康评估和指导并不完全契合。
用户可以根据自身需求灵活指引 AI 的行为,或者使用定制的 GPT 模型实现类似的功能转变,详情请见此链接。
使用 AI 的平衡
在这一领域使用 AI 并非万能灵药,但它在许多关键方面确实具有巨大优势。我常被问及一个问题:AI 的不足和潜在隐患会否阻碍其提供适当的心理健康咨询,甚至对用户造成不利影响。
例如,现实情况是,AI 开发者通常在许可协议中保留手动检查用户输入数据以及利用这些数据进一步训练 AI 的权利(详见我对此问题的讨论,参见此链接)。换句话说,用户输入的数据不一定能享有与医疗保健相关的隐私或机密性保护。
另一个问题是所谓的 AI 幻觉现象。有时生成式 AI 会凭空“捏造”一些看似真实但实际上并无事实依据的信息。试想当某人正利用生成式 AI 寻求心理健康建议时,AI 突然建议其做出不当行为,这显然不妥。用户可能因对 AI 建立了信任而依赖于它,却未能及时识别这种 AI 幻觉。
关于 AI 幻觉的详细解释,请参见此链接。
那么,我们应如何看待这些不足呢?
首先,我们应谨慎行事,避免因小失大(俗话说:不要因噎废食)。
完全拒绝在这一领域使用 AI 的做法显得目光短浅,也可能不具实际操作性(关于限制生成式 AI 某些用途的呼吁,我的相关分析请参见此链接)。目前看来,生成式 AI 为心理健康服务所提供的便捷性明显超过其不足(请注意,关于这些问题仍需更多研究和调查)。
此外,AI 领域的技术进步正逐步缓解或消除许多缺陷。AI 开发者深知,只有不断迭代改进产品才能满足用户需求,并长期保持盈利能力。
另一个观点是,心理健康治疗师也可以将 AI 作为其护理工具包中的重要组成部分。我们无需陷入患者只能选择使用 AI 或人类治疗师的二元对立——二者完全可以协同智能地运用。传统的非 AI 模式是典型的客户-治疗师关系。而我则认为我们正迈向一种全新的三元关系,即客户-AI-治疗师关系。在这种模式下,治疗师将 AI 无缝整合到心理健康护理过程中,从而接受而非排斥 AI 的潜力。
关于客户-AI-治疗师三元关系的进一步讨论,请参见此链接和此链接。
我赞同美国心理学家 Carl Rogers 的名言:“在我职业生涯早期,我总问:我怎样才能治疗、治愈或改变一个人?而如今,我会这样问:我怎样才能提供一种能促使这个人个人成长的关系?”
这种关系无疑会包含 AI,以一种或另一种方式。
总结展望令人鼓舞
一种较为可能的未来观点是,我们终将实现完全自主的 AI,能够提供与人类治疗师媲美、甚至超越的人性化心理健康治疗。这种 AI 将具备完全的自主能力,而无需人类治疗师随时待命。
这或可比作心理健康治疗领域的 Waymo 或 Zoox,借喻如今自主驾驶汽车的初现端倪。需要澄清的是,目前现有的自动驾驶汽车仅处于标准自动驾驶等级的 4 级,还未达到最高的 5 级。同理,我预测心理健康领域中的 AI 初期将达到相当于自动驾驶汽车 4 级的自主水平,然后逐步进化至 5 级。
关于 AI 在心理健康领域自主等级的详细解释和框架,请参见此链接。
我完全赞同 Insel 医生所提出的观点,即我们需要从投资回报的角度来衡量 AI 的应用,务求做到“对比同类”。按照他列举的心理健康护理现存困局,我们必须理性地评估 AI 相对于现有解决方案的成效。
正如你所看到的,只要 AI 被设计并采用得当,它就能显著帮助解决当前心理健康护理体系所面临的问题。同时,AI 还可能开辟全新可能性。或许我们将发现,AI 不仅能促进基于证据的心理健康护理,更能带领我们迈出数步之遥。
巧妙应用 AI 可能帮助我们解读人类思维运作机制。我们有机会跳出目前那种“黑盒子”式的心理健康理解模式,揭示导致心理健康问题的内在机理。正如 Insel 医生所言,AI 对心理健康领域的作用可能就如同 DNA 对抗癌研究的推动作用一样。
显然,我们正处于心理健康护理体系大变革的浪潮之中,而 AI 则是推动我们进入由我们共同定义的心理健康未来的重要催化剂。让我们齐心协力,用我们的主动性和热情引导并实现这一 AI 应用落地,为大家带来切实的福祉。
来源:至顶网