摘要:2024年初,长沙市的一家公立医院精神科引进了一个名为“亿亩心田”的AI心理健康平台。
帮助精神患者进行恢复治疗,AI可以开始代替心理医生了吗?
2024年初,长沙市的一家公立医院精神科引进了一个名为“亿亩心田”的AI心理健康平台。
这套系统在精神障碍患者的诊疗过程中承担“助手”角色。
医生通过平台收集患者的语言、面部表情和行为数据,系统实时生成情绪指数,并给出初步评估。
这种多模态识别方式正逐步成为心理诊疗中的一个新工具。
平台的目标是通过智能分析,为医生提供辅助决策的数据支持。
用户“海马”向媒体公开了自己的康复经历。
他曾长期受到抑郁和失眠困扰,在开始使用“亿亩心田”平台数月后,情绪状况逐步改善。
他坚持在平台上记录情绪、撰写日记,还参与了AI引导的正念冥想练习。
用AI助手的这段时间,他的思维方式发生了变化,从抱怨转向了积极面对。
“海马”的个案引发了新的思考:AI所提供的“个性化”服务,真的理解了用户的心理结构吗?
平台的数据分析主要语言表达和面部识别等指标,这些方面覆盖面广,难以触及更深层的心理因素,如个人的成长经历、文化背景、社会关系等。
个性化推荐,是算法对已有数据的提取与匹配。
真正有效的心理干预,依赖人与人的交流与理解。
“亿亩心田”平台中的虚拟数字人家族,可以24小时在线与用户对话。
系统会根据用户的语调、内容、语速等,判断其情绪状态,并进行回应。
AI的情感计算技术不是问题,真正的问题是:陪伴的核心是共情。
心理学研究表明,共情能力是长期训练和经验积累的结果。
AI的“陪伴”可以提供及时响应,这几乎等同于一个真正理解你的人在身边。
很多使用者在初期会感到温暖,但一旦长时间依赖于此,反而会加剧现实世界中人际关系的缺失。
社会广泛关注的另一个点就是,AI心理治疗同时会不会带来数据隐私泄露的问题。
用户在平台上记录的内容,包括负面情绪、生活细节甚至创伤性经历。
这些数据属于高度敏感信息,一旦泄露或被滥用,后果无法估量。
平台目前未公开其数据存储与使用规范,这成为了公众对其质疑的主要原因之一。
比起受到的质疑,“亿亩心田”已经展现出来的优点更多。
“亿亩心田”平台具备情绪风险预警功能。
一旦系统检测到用户情绪波动异常,会自动推送干预建议和提示社区工作者或医生进行人工干预。
这种机制在2024年长沙的一项试点中的项目,确实成功阻止数起潜在的情绪危机。
虞敏是创星集团人工智能研究院的执行院长,也是“亿亩心田”平台的开发负责人。
他在采访中坦言,平台目前最大的限制,是缺乏社区精神康复机构、专业社工与AI系统之间的协同机制。
真正的康复过程需要专业人员介入,AI只能提供数据支持和技术手段。
现实问题是:这一类人才极度紧缺。
在精神康复领域,专业医生、护士、心理咨询师的比例远远低于需求量。
没有线下支持,AI平台会沦为“技术孤岛”,难以发挥作用。
AI进入心理健康领域,是现实需求的倒逼。
人们的热切需要促使AI在精神助手上进步。
它可以让医生更高效地识别风险,让用户更方便地记录情绪波动,让教育机构更早地介入学生心理问题。
但精神康复的难题,在于我们是否愿意构建一个人机协同、技术与伦理并重的支持系统。
AI或许能闯出一条新路,但这条路,必须有人同行。
来源:妇产科医生小永