摘要:2024年6月19日,《2024年Z世代职场心理健康报告》发布,报告中显示,约70%的受访者曾因职场问题产生心理健康问题;
2024年6月19日,《2024年Z世代职场心理健康报告》发布,报告中显示,约70%的受访者曾因职场问题产生心理健康问题;
并且部分职场人士已经开始利用AIGC技术与AI聊天助手倾诉,将其视作虚拟的心理咨询师初筛。
那么,问题就来了:AI机器人真的可以帮我们做心理咨询吗?它可以完全取代心理咨询师吗?
01
AI在心理咨询中的应用及效果
在 1966 年,麻省理工学院的 Weizenbaum 成功研发出了全球首个聊天机器人——Eliza。
Eliza 本质上是一种用于模拟人类对话的计算机程序,亦可称之为虚拟代理。
Eliza的对话模式设计是基于模式匹配(pattern matching)技术,这种技术依赖于一个静态的脚本系统,系统存入了一系列预先定义的输入模式和它们对应的输出响应。
Eliza通过扫描用户输入文本中的关键词,匹配预设的模式,并生成设计好的输出响应,从而模拟对话 。
Eliza的设计灵感来源于心理治疗中的罗杰斯心理治疗,也就是个人中心疗法,
这种疗法中,通常由患者主导对话,而治疗师会重复患者的话,以提供和谐适当的心理环境和氛围 。
Eliza模仿的是一个心理治疗师,通过使用问句重复用户的话,并回复给用户,就像是真正的心理治疗师会做的那样 。
比如:
来访者
男人都是一样的。
怎么说?
Eliza
来访者
他们总是在困扰我们一些事情。
您可以举一个具体示例吗?
Eliza
来访者
好吧,我的男朋友让我来了这里。
您的男朋友让您来了这里?
Eliza
来访者
他说我很多时候都很沮丧。
很抱歉听到您感到沮丧。
Eliza
来访者
是的,我不开心。
Eliza的对话模式包括以下几个特点:
1. 转换人称代词(例如将“我的”变成“你的”,反之亦然)。
2. 识别特定关键词,并根据预设的脚本生成回应。
3. 如果无法理解用户输入,会使用通用的回复,例如“你具体指的是什么?”或“请你说详细点好吗?” 。
然而,Eliza 也存在一些明显的不足之处。
它在对话时仅仅能够凭借简单的关键词,却无法综合考虑上下文的关系,
而且没有标准的测验工具,不能对语料库进行更新,同时还缺乏保密和推理机制。
2015年,清华大学的学者推出了一款面向青少年的虚拟朋友应用——Teencha,
它旨在帮助青少年处理学习、自我认知、人际关系和情感等方面的压力。
Teenchat 的服务器由三个关键组件共同构成,分别是聊天管理器、压力检测器以及响应生成器。
当用户登录该系统之后,系统首先会向用户致以问候。
紧接着,压力检测器会借助应激情绪词典来剖析用户输入中的压力信号,最后系统通过构建语义依赖关系树来总结关键问题。
经过长达一个月的深入研究,Teenchat 在压力感知方面成功达到了 78.34%的准确率,并且赢得了 76.12%的用户支持率。
2017 年,斯坦福大学的临床心理学家艾莉森·达西(Alison Darcy)精心设计出了一款以文本形式呈现的心理咨询聊天机器人——Woebot。
Woebot 这款应用程序运用了认知行为疗法(CBT)的原理,
借助自然语言处理技术来理解用户的语言并予以回应,其目标是协助用户处理诸如抑郁和焦虑之类的情绪问题。
Woebot 的消费者版本于 2018 年正式上线,用户能够在匿名的状态下与该机器人展开对话。
它能够通过简短而日常的对话以及对情绪的追踪来提供聊天服务,
帮助用户准确识别自身的情绪和思维模式,进而逐步培养心理韧性,有效缓解诸如抑郁、焦虑等负面情绪。
它主要依靠抑郁症自我评估量表、广泛性焦虑障碍7项量表(GAD-7)以及调查情绪问卷等工具来评估用户的情绪状态。
Woebot 会向用户发送有关情境和情绪测试的一般性问题来开启谈话,并提供若干回答选项。
随后,依据用户的反馈来剖析用户的实时情绪状态和活动信息,
从知识库中检索出与用户反应相匹配的内容给予移情回应,并对自然语言理解模型进行更新。
为了进一步优化用户体验、提升用户的使用兴趣,Woebot 每天都会发送问候,在对话过程中使用表情符号或动画、动态图片。
此外,Woebot 还会定期对用户进行问卷调查以测试抑郁程度,并提供有关情绪状态的每周报告。
有研究学者运用 Woebot 引导一小部分经历抑郁或焦虑的大学生完成 CBT 课程。
研究结果表明,经过两周的干预时期之后,这些被试的抑郁和焦虑症状得到了显著减轻。
并且,当发现用户长期处于抑郁状态或者存在自残和自杀倾向时,它会自动拨打报警电话。
Woebot 还被应用于治疗孕妇产后抑郁症,研究结果显示孕妇对 Woebot 的满意度颇高,使用抗抑郁药物的次数也明显减少。
相比之下,Ellie则更为高端,它巧妙地将虚拟现实技术与情感计算相融合。
Ellie 以虚拟人的形象出现在屏幕上,能够深入分析用户的言语反应、面部表情和语调。
除了能够评估抑郁症和焦虑症之外,Ellie 识别痛苦指标的能力对于创伤后应激障碍的诊断与治疗也颇具益处。
Ellie 还融入了VR 技术,能够对患有某些精神障碍(如恐高症)、妄想、幻觉或与精神分裂症谱系相关的认知和社交技能障碍等心理障碍的人群进行沉浸式虚拟治疗干预。
当前,它已经成为治疗某些心理疾病中一种高效且成本较低的辅助手段。
当然,目前市场上已经有许多其他不同类型的AI心理咨询机器人,
而在在国内也已经有一部分的中小学引入了帮助学生减压的聊天机器人,
如果我们从数据上来看的话,AI心理咨询的咨询效果确实并不差。
要知道的是,传统的心理咨询在国内存在着一定的弊端,
首先,心理咨询人才的培育面临困境,
心理咨询市场欠缺完善的培养机制与制度,服务品质良莠不齐,难以契合现代社会庞大的心理咨询需求,同时高昂的费用也常常使人望而却步。
再者,传统心理咨询通常采用预约模式,例如每周约 1 至 2 次,这种方式不仅耗费时间与精力,而且难以确保对来访者心理疏导的及时性。
另一方面,就来访者来说,因心理疾病被污名化,致使部分心理疾病患者耻于承认患病,未能及时接受治疗,持续遭受负面情绪和消极体验的折磨。
而AI 心理咨询能够让用户突破空间限制申请人工智能心理咨询,并能在较短时间内获取结果;
它能够弥补人力资源的不足,为医疗人员减轻压力;
降低咨询与治疗费用,将心理健康体系服务的对象范围扩大至低收入人群、弱势群体等;
其次,与 AI 机器人进行心理咨询,能够增强用户的自我表露:
来访者会觉得人工智能在咨询与治疗时不会受到同理心、偏见等因素的影响,
和人工智能交流能够规避污名化,减少面对面交流的尴尬,从而更乐于畅所欲言。
并且,人工智能能够识别出人类在分析数据时容易忽略的变量之间的相互作用,还能够排除不显著的预测因素,以此避免它们过度干扰预测;
而且它能够迅速地运用和更新咨询与治疗方法,高效完成查找、统计分析、计算等相关工作,制定出更为精准的服务方案。
那么,AI心理咨询就那么完美,没有一点弊端吗?
02
AI心理咨询的存在问题
一、保密原则
保密原则是传统心理咨询的核心要义之一,心理咨询师严格遵循的一项重要伦理和法律义务便是保护来访者的隐私信息不被泄露。
在传统的咨询场景中,保密信息仅存于咨询记录以及来访者与咨询师双方的记忆里,
故而,只要咨询师和来访者均不透露保密信息,控制并防止信息泄露并非难事。
然而,心理咨询 AI 以信息技术和大数据为支撑,来访者的语言、表情、肢体动作等皆被存储在医疗共享云端,
在信息的传输、保存、提取的每一个环节都有可能出现数据泄露、隐私失窃的情况,这无疑极大地增加了个人主体性的信息风险。
某些咨询系统会要求来访者上传其身份证明的扫描件,可这样不但无法保证这些扫描件的有效性,还可能损害来访者的个人身份信息。
心理咨询 AI 的大数据算法与传统心理咨询的保密性原则相冲突,或许会在个人身份权利、隐私主体性方面构成一定的威胁。
二、伦理道德
人工智能的干预举措往往缺少明晰的社会道德考量,其产生的影响需要围绕信任、隐私和自主等相关问题展开进一步的探究,否则一旦出现医疗事故,责任的划分将会是一个严峻的问题。
咨询 AI 所涉及的法律责任问题主要涵盖来访者的个人隐私权、面对来访者的违法犯罪类问题是否应当揭露举报、如何处理咨询过程中出现的法律纠纷等等。
咨询师与来访者在治疗前、治疗中以及治疗后都会遭遇法律上的责任问题。
在治疗前,对来访者的大数据信息收集是否侵犯了人的隐私权、肖像权;
在治疗过程中,对于来访者的违法犯罪行为应持何种态度,揭露举报可能导致客体主体化,违背了人的自主决策性;
在治疗结束后,咨询 AI 对来访者的心理健康会产生怎样的后果,是否会致使个人的自由意志被削弱。
三、安全性
在心理咨询的进程中,来访者向咨询 AI 毫无保留地倾诉,宣泄情绪,
然而咨询 AI 对于来访者的问题仅仅是基于算法的机械性反馈,可能难以解读来访者的真实咨询意图并给出错误的指导;
其次,AI 也可能在面对文化、性别、年龄等个性化因素时难以给出合理的建议;
再者,面对来访者提出的诸如电车难题式的道德两难困境,咨询 AI 是否能够做出正确的判断……
这些情形都会影响咨询 AI 与来访者的合作流畅性、尊重性和一致性,可能对来访者的心理安全造成二次伤害,损害来访者的心灵。
03
结语
那么AI心理咨询可以完全取代真人的心理咨询吗?
我认为至少从现在来看,是不能的。
第一个是现在AI机器人都不存在自我意识。
他们与来访者对话所给出的反馈,本质上均是基于对大数据的学习,简而言之,就是从过往的数据中分析得出适宜的回答。
这种模式就很适用于CBT疗法,你也可以看到大多数AI机器人用的都是这个疗法。
因为只要你也像个机器一样遵循它学习过后给你的指令,你的认知,情绪和行为都会有所改变。
就好像,以前医生是怎么治感冒的,怎么判断严重程度和要吃多少药等等,
它现在就学习以前的医生的做法来给你传达相对应的任务,只要你按照它的来做,感冒就能痊愈。
但要知道的是,心理咨询是非常个性化的过程,
机器人学习再多的数据,下一次遇到的来访者对于他们来说也是一个全新的“数据”,尽管可能跟过往的数据是相似的。
毕竟每一个人都是一个独特的个体,
而心理咨询师的任务是是使来访者察觉和意识到自己痛苦的来源,主动将其“整合”进自己的生命,进而推动心智的发展。
就这一点,人工智能目前或许还做不到。
而且人类目前对于大脑的认知也非常非常局限,
2018 年,图灵奖获得者、计算机科学家约翰·霍普克罗夫特(John Hopcroft)从研究策略上把机器意识划分为算法构造策略和仿脑构造策略。
图为约翰·霍普克罗夫特在授课
很显然,若人工智能想要成为心理咨询师,仿脑策略似乎更契合个性化和咨询伦理的要求。
然而,就目前人类对大脑的认识状况来看,在脑科学领域,借助脑成像技术,我们虽已能够获取大脑的光学切片图像,了解脑内血流状况以及脑内电信号是如何被激活的。
但就精细化程度而言,我们当下仍处于对大脑进行简单分区的阶段,对于大脑各部分具体、精确的反应模式尚不清晰。
这一现状决定了人类自身对大脑的认识尚处于初始阶段,这种认知水平即便通过算法载入人工智能,也会由于数据本身的初级性而难以应用于与人相关的工作层面。
在这一方面,美国心理学会已经给出了明晰的回应,在中长期内人工智能无法服务于心理咨询工作。
当然,如果只是想简单跟别人聊个天,缓解一下自己的心情,那现有的AI社交机器人基本可以满足你的需求。
来源:新浪财经