用于解读人类语言神经科学的 AI 算法

B站影视 港台电影 2025-03-17 15:51 1

摘要:科学家们使用了一种称为大型语言模型的人工智能,来揭示关于人脑如何理解和产生语言的新见解。 (图片来源:Yuichiro Chino/Getty Images)

一款历经数十小时真实世界对话训练的 AI 模型,能够精准预测人脑活动,且表明语言结构的特征无需进行编码便能呈现。

科学家们使用了一种称为大型语言模型的人工智能,来揭示关于人脑如何理解和产生语言的新见解。 (图片来源:Yuichiro Chino/Getty Images)

凭借人工智能(AI),科学家们成功揭示了日常对话中错综复杂的大脑活动。研究人员指出,该工具能够为语言神经科学带来全新的洞见,假以时日,它有望助力改进旨在识别语音或协助人们交流的技术。基于 AI 模型将音频转录为文本的机制,此项研究背后的研究人员能够相较于编码语言结构特定特征的传统模型,更为精准地描绘对话过程中所发生的大脑活动,诸如音素(构成单词的简单声音)和词性(例如名词、动词和形容词)。

该研究中所运用的模型被称为 Whisper,其采用音频文件及其文本转录文本,这些转录文本被用作训练数据,以实现音频向文本的映射。而后,它借助该映射的统计数据来“学习”预测此前从未听闻过的新音频文件中的文本。故而,Whisper 全然通过这些统计数据运作,而在其初始设定中并未编码任何语言结构特征。然而,在研究进程中,科学家们表明,一旦历经训练,这些结构依旧会在模型中显现。

该研究阐明了此类 AI 模型(称为大型语言模型(LLM))的工作原理。但研究团队对其提供的有关人类语言和认知的洞察力更具兴趣。明确模型发展语言处理能力的方式与人们发展此类技能的方式之间的相似之处,或许有助于设计辅助人们交流的设备。

这项研究于 3 月 7 日发表于《自然人类行为》(Nature Human Behaviour)杂志,其中包含四名癫痫患者,他们因临床缘由已接受了植入大脑监测电极的手术。在征得同意的情况下,研究人员记录了患者在整个住院期间的全部对话,时长从几天至一周不等。他们总计获取了 100 多个小时的音频。每位参与者均安装了 104 至 255 个电极以监测其大脑活动。

Goldstein 表示,大多数运用对话录音的研究均在实验室中开展,处于极为受控的状况下进行,持续约一个小时。尽管这种受控环境可用于梳理不同变量的作用,但 Goldstein 及其合作者期望“探索现实生活中的大脑活动和人类行为”。他们的研究揭示了大脑的不同部分在产生和理解语音所需的任务中是如何参与其中的。戈德斯坦解释道,关于大脑的不同部分是否在这些任务中启动,抑或整个器官是否作出更为集体的反应,一直存有争议。前一种构想或许表明,大脑的一部分处理构成单词的实际声音,而另一部分阐释这些单词的含义,还有另一部分负责处理说话所需的动作。

Goldstein 称,在另一种理论中,大脑的这些不同区域更多地协同作业,采取“分布式”方法。研究人员发现,某些大脑区域的确倾向

来源:科技游乐馆

相关推荐