摘要:在探讨机器与人类学习能力的边界时,一个常被忽视的现象正逐渐受到学术界的关注——通过思考学习(LbT)。这一理念挑战了传统的学习观念,即学习必须基于外部信息的输入。事实上,无论是科学家在脑海中构建实验模型,还是司机在心智中模拟行车路线,都证明了即便没有新的外界数
在探讨机器与人类学习能力的边界时,一个常被忽视的现象正逐渐受到学术界的关注——通过思考学习(LbT)。这一理念挑战了传统的学习观念,即学习必须基于外部信息的输入。事实上,无论是科学家在脑海中构建实验模型,还是司机在心智中模拟行车路线,都证明了即便没有新的外界数据,学习依然可以发生。
普林斯顿大学心理系的Tania Lombrozo教授在《Trends in Cognitive Sciences》上发表的研究综述,为这一看似矛盾的现象提供了理论支持。Lombrozo通过分析解释、模拟、比较和推理这四种学习方式,揭示了它们背后的计算机制,并指出无论是人类还是人工智能,都在利用现有信息的重新表征来支持更可靠的推理。
解释性学习是一个典型的例子。在一项经典研究中,优秀学生在面对学习材料时,更倾向于通过向自己解释来深化理解。这种学习方式不仅有助于纠正现有认知中的偏差,还能构建新的知识表征。类似地,AI系统也通过生成自我解释来实现泛化,从而在关系推理和因果推理任务中表现出色。
模拟学习则是另一种重要的LbT方式。爱因斯坦通过想象光子与火车的运动来探讨相对论,伽利略则模拟物体下落来研究重力。这些心理模拟不仅不需要外部数据,还能带来深刻的科学见解。在AI领域,深度强化学习系统通过模拟多组决策序列来近似求解最佳方案,与人类的心理模拟有着异曲同工之妙。
类比推理和比较学习同样展示了LbT的力量。达尔文在构建自然选择理论时,通过类比人工选择与生物进化,推导出了自然选择中的变异机制。在AI研究中,即使不提供源类比,机器也能通过自身的思维或知识构建类比,从而在数学问题、代码生成等任务中表现出色。这种类比提示的表现甚至优于许多最先进的语言模型性能基准。
推理学习则是LbT中最为复杂的一种。有效的推理不仅需要逻辑推导,还需要反思和实际判断。在人工智能领域,尽管深度学习系统的推理能力仍在发展中,但提示大型语言模型进行逐步推理已被证明在应对高难度任务时尤为有效。这种推理方式不仅克服了直接提示下的错误倾向,还展示了AI在推理领域的巨大潜力。
Lombrozo的研究还揭示了LbT的悖论之处:学习者并没有获得新的信息,只是利用了已存在于脑海中的元素;然而,学习确实发生了,学习者获得了新的知识或能力。她指出,这种学习并非创造全新的知识,而是让已有的知识变得可获取。通过推理、解释、模拟和比较等过程,学习者能够提取具有新可及条件的表征,并利用这些表征生成新的知识与能力。
Lombrozo还强调了LbT的必要性。在资源有限的智能体中,LbT提供了一种按需生成新颖且有用表征的方法,而不是单纯依赖已有的学习结果。这解释了为什么无论是自然智能还是人工智能,在面对未来环境和目标的不确定性时,都会依赖LbT来应对。
尽管LbT在自然智能和人工智能中的实现还有许多未解之谜,但这一现象无疑揭示了认知的局限性,并为理解智能的本质提供了新的视角。随着研究的深入,我们有望揭开LbT的更多秘密,从而更好地利用这一机制来促进学习和智能的发展。
来源:ITBear科技资讯