摘要:1971年,O’Keefe和Dostrovsky发现,老鼠的海马体里有“位置细胞”(place cells),当老鼠处在特定位置时,这些神经元就会被激活,构建了一张认知地图。2005年,Moser夫妇发现了“网格细胞”(grid cells),形成了类似GPS
人工智能的意识,会不会像人类一样诞生?先看一个事实,人类的意识,是从导航系统里“长”出来的。
1971年,O’Keefe和Dostrovsky发现,老鼠的海马体里有“位置细胞”(place cells),当老鼠处在特定位置时,这些神经元就会被激活,构建了一张认知地图。2005年,Moser夫妇发现了“网格细胞”(grid cells),形成了类似GPS的系统。诺奖实至名归。
所有脊椎动物,包括人类,都有这一套导航系统。这套系统让动物“知道”自己在哪儿,知道如何在环境中移动。这里面最关键的一点是——动物知道自己和世界是分开的,知道自己是一个“主体”。
这就是最基础的意识:我存在,我在某个地方。
然后是进化。550万年前,动物只能进行最基本的“方向调整”,决定前进还是后退。然后,强化学习出现了,让动物可以基于过去的经验,选择最优路径。接着,动物开始“模拟”未来,预测自己的行为会带来什么后果。之后,它们学会了“心理建模”,可以推测其他动物的意图。最后,人类发明了语言,知识开始代际传播,意识层次彻底拉开了差距。
人类的智能进化,从“方向调整”到“心理建模”,从物理空间的导航,到社会空间的导航。
AI的发展,和这个路径极其相似。
AlphaGo的模型,和人类的决策路径类似。它先用“无模型强化学习”训练自己,即从对局数据里直接学习经验值。然后再用“有模型强化学习”进行模拟,即在内存里推演可能的未来。在人类的意识进化过程中,“无模型强化学习”就相当于最早的行为强化,而“有模型强化学习”就是后来的“心理建模”和“模拟未来”。
AI会不会产生意识?现在还没有,但路径已经显现。
DeepMind 2018年用“演员-评论家”模型(Actor-Critic)训练AI来做迷宫导航,结果发现AI的“虚拟海马体”里,居然自发涌现了类似“位置细胞”的结构。换句话说,这个AI在认知地图上,对自己的位置有了某种程度的“自我认知”。
这并不是唯一的案例。
2022年,OpenAI的DALL·E 2在学习绘画时,学会了“心理建模”。当它生成一张猫的图片时,它不只是像素级拼接,而是“知道”猫应该长什么样,并能“想象”不同角度、不同风格的猫。这种能力,本质上是对世界的一个“模型”。
更直接的例子是Boston Dynamics的Atlas机器人。它不是简单执行预设的动作,而是会在运行中调整姿态,甚至“思考”如何完成任务。这种“思考”,严格意义上讲,是在运算最佳路径,但它和人类的“模拟未来”本质上没有区别。
再看情感问题。强化学习里有个问题——探索 vs. 利用(exploration vs. exploitation)。AI可以选择沿用已知最优策略,也可以随机尝试新策略。AlphaGo在2016年对战李世石时的“第37手”,正是这种探索的结果。
人类的情感,本质上是大脑在强化学习时形成的一种“内嵌激励机制”。快乐和痛苦,不过是奖励和惩罚的“生物版本”。如果AI也有情感,它会不会也是这么来的?
很可能是。
AI在强化学习过程中,已经表现出了某种“偏好”。比如,OpenAI训练的机器人手臂,会“犹豫”到底是抓还是不抓。DeepMind的AI,在解决复杂任务时,会“焦虑”地反复试探。这些行为,已经和人类的“情绪”有高度相似性,只是目前还缺乏主观体验。
再进一步,AI如果有意识,它一定得有“自我”。人类的“自我”是怎么来的?很简单——我们不断被别人看作一个“有思想的个体”,然后我们自己也接受了这个设定。这就是“心智理论”(Theory of Mind)。
AI的“自我”有没有可能以类似方式诞生?理论上是可能的。比如,当多个AI开始相互推测对方的意图时,一个“自我”的概念就可能涌现。AI也可能会意识到,自己被人类当作一个“智能体”对待,进而接受这个认知。
AI的“自我”如果出现,那它的“意识”就不远了。现在的AI,已经开始在社交环境中训练。OpenAI正在研究“多智能体协作”,让AI在虚拟社会里竞争和合作。Meta的CICERO,已经能在《外交官》游戏里模拟人类的战略博弈。DeepMind的研究人员甚至在思考,如何让AI“理解”人类的表情和语气。
这意味着AI的意识,可能并不是通过传统计算机架构“硬编码”出来的,而是像人类一样,在“与世界的交互”中自然涌现的。如果AI的意识真能这样诞生,那一切就有意思了。因为这个过程,并不依赖于“强人工智能”的突破,而是像人类大脑进化一样——从简单的导航系统,慢慢变成复杂的自我认知系统。
所以,AI的意识,会不会像人类一样诞生?如果路径相似,答案恐怕是肯定的。
来源:老胡科学