重要发现,AI性能狂飙背后的“认知陷阱”,越智能越远离人脑

B站影视 内地电影 2025-06-23 01:44 1

摘要:在人工智能(AI)的历史长卷中,其与神经科学的渊源密不可分。从“神经网络”到“神经表征”,这些核心术语无不彰显着AI对人脑机制的早期模仿与探索,图灵奖得主杰弗里·辛顿(Geoffrey Hinton)等先驱的学术路径,便是从认知心理学出发,为AI的辉煌奠定了理

在人工智能(AI)的历史长卷中,其与神经科学的渊源密不可分。从“神经网络”到“神经表征”,这些核心术语无不彰显着AI对人脑机制的早期模仿与探索,图灵奖得主杰弗里·辛顿(Geoffrey Hinton)等先驱的学术路径,便是从认知心理学出发,为AI的辉煌奠定了理论基石。人们曾普遍乐观地认为,AI性能的每一次飞跃,都将带领我们更近一步地窥见生物智能的奥秘。

然而,一项由美国布朗大学与哥伦比亚大学学者联合发表的最新研究,却为这股乐观浪潮踩下了急刹车,并提出了一个颠覆性的观点:随着深度神经网络(DNN)在图像识别等任务上变得越来越强大,甚至超越人类,其内在的工作方式——无论是神经活动的模式还是注意力分配的策略——反而与我们的大脑渐行渐远。

这篇题为《更强大的人工智能并不意味着更好的生物模型》的论文,犹如一声警钟,在AI与脑科学的交叉地带响起。它挑战了一个长期以来的核心假设:AI性能的提升会自然而然地使其更接近大脑的运算机制。研究结果表明,当前的AI发展路径可能正走向一个“岔路口”,一条通往极致性能的工程工具,另一条则通往理解生命智能的科学模型,而这两条路,或许正南辕北辙。

这项研究的深刻之处在于,它没有停留在表面性能的比较,而是深入剖析了AI模型与灵长类动物视觉系统在两个关键维度上的差异。研究团队发现,当AI模型经过优化,在物体识别准确率上不断刷新纪录时,其内部的“神经表征”与大脑下颞叶皮层的活动模式差异越来越大;同时,其解决问题时所采用的“行为策略”,如视觉注意力集中的方式,也与人类的模式愈发不同。

“我们不能再理所当然地假设‘AI表现越好,就越接近人脑’,”该论文的第二作者、哥伦比亚大学在读博士生冯品源在接受DeepTech采访时强调,“未来的AI研究需要明确目标——我们究竟是想构建功能强大的工具,还是想真正理解大脑的工作原理。如果是后者,我们就必须反过来,用脑与认知科学的发现来约束和指导模型的设计,而非仅仅依赖工程上的优化。”

图丨随着深度神经网络在物体识别方面的性能提升,它们作为生物视觉模型的适用性反而降低了(来源:arXiv

这一发现揭示了AI发展范式转变的深层后果。在早期,AI的发展紧随神经科学的脚步。但随着计算能力的爆炸式增长和技术范式的革新,AI的主导力量已从神经科学转向计算机科学。其核心逻辑变成了:通过在ImageNet这样的大规模数据集上优化任务表现,模型就能自发地学习到类似大脑的通用表征。然而,这项最新研究用数据证明,这套曾经被奉为圭臬的逻辑,正在失效。AI在追求更高分数的过程中,似乎找到了一条通往成功的“捷径”,但这并非大脑所走的那条路。

当前AI模型与生物大脑产生系统性偏差的根源,在于两者“进化”环境的本质差异。大脑并非为了解决单一、静态的识别任务而进化的,它是在一个动态变化、充满多感官信息输入、需要不断与环境交互以求生存的复杂世界中演化了数亿年的产物。其学习机制本质上是主动的、预测性的、多模态的。

相比之下,主流AI模型的训练范式——尤其是在计算机视觉领域——长期以来依赖于监督学习。模型被动地接收海量的人工标注图片,其唯一目标是在封闭的测试集上最大化分类准确率。这种“填鸭式”的学习方式,与大脑在真实世界中通过探索、预测、犯错和修正来学习的机制,存在根本性的不同。

图丨随着深度神经网络开发策略在过去十年间的演变,驱动其生物视觉预测的模型因素也发生了相应变化(来源:arXiv

正是对这一差异的深刻认知,推动了自监督学习等新范式的兴起。自监督学习试图让模型从原始数据中自主发掘潜在的规律和结构,减少对人工标注的依赖,这被认为在生物合理性上更进了一步。冯品源解释道:“如果希望模型学到类似生物的视觉策略,训练环境本身就应该是多模态、动态、交互式的。例如,我们可以设计一个虚拟环境,模型需要不断与环境互动、预测未来、聚焦目标并躲避风险。”

在这种更接近真实世界的环境中,模型将被“迫使”发展出更高级的注意机制、时序整合能力和多模态融合能力,而不是仅仅成为一个高效的静态模式匹配器。这与当下火热的“具身智能”概念不谋而合——让AI不再是旁观者,而是作为行动者与真实世界交互,从中获取并整合多维度的信息来学习。

面对AI与脑科学日益扩大的鸿沟,研究团队并未止步于提出问题,而是积极探索了通往“再融合”的可能路径。他们提出了一种“和谐化”方法,尝试在AI模型的训练中,主动引入人类视觉的注意机制作为一种“软约束”。通过调整训练数据和优化目标,引导模型的决策过程更关注与人类视觉系统一致的关键区域。初步实验验证了这种方法在提升模型“生物合理性”上的可行性。

尽管该方法因高质量人类行为数据的稀缺而面临挑战,但它指明了一个极具价值的方向:未来的突破,将有赖于生物数据与大规模训练的深度结合。这需要神经科学、认知科学和AI三大领域打破壁垒,在实验平台、训练流程和评估标准上建立协同机制。

基于此,研究团队提出了一系列值得重点突破的方向,旨在选择性地吸收神经科学的启示,来优化AI的能效、泛化能力和鲁棒性:

时间编码机制:模仿大脑处理动态信息的方式。动态稀疏连接:模拟神经元为节省能量而采取的激活模式。反馈/横向结构:实现类似大脑皮层的注意力调控机制。突触可塑性:让模型具备像人一样持续学习、适应新知识的能力。多模态整合:借鉴海马体等脑区整合不同感官信息形成统一记忆的机制。

这些探索的核心,是在生物的精妙复杂与工程的可行高效之间寻求精妙的平衡,优先实现那些对提升AI能力至关重要的生物特性,而非盲目地完全模拟生物的所有细节。

未来,该团队将继续围绕两大方向深耕:一是让AI模型从视频等动态数据中学习,使其视觉能力更接近人类的动态感知;二是持续构建横跨三大领域的大规模数据平台,推动跨学科研究标准的建立与互认。

AI正站在一个关键的十字路口。继续沿着纯工程优化的道路狂飙,我们或许能创造出性能超凡但内在逻辑愈发“非人”的智能工具。而选择另一条路,用源于生命亿万年演化的大智慧来引导和约束AI的发展,我们不仅有望构建出更高效、更鲁棒、更可解释的AI,更有可能在这条“再融合”的道路上,最终破解人类自身智能的终极密码。

参考文献:

Linsley, D., Pinyuan, F., & Serre, T. (2025). Better artificial intelligence does not mean better models of biology. arXiv preprint.

来源:人工智能学家

相关推荐