三生万物:AI时代信息网络大变局

B站影视 日本电影 2025-09-04 17:10 5

摘要:在作者赫拉利看来,最重要的相同点便在于,AI和人类一样都具备自主决策的能力。以自动驾驶为例,当我们给汽车设定“前往上海”的目标后,AI不仅会执行指令启动汽车,还能够自主完成路线规划、实时路况判断以及突发状况应对等一系列复杂行为。

《智人之上》作者:尤瓦尔·赫拉利

​在前面几节中,我们简要回顾了人类的信息网络发展简史。那么,从这节开始,我们将目光聚集到现在和未来,看看AI时代到来后,人类信息网络的变化。

“硅基人类”

相较于过去,AI时代对于信息网络最大的改变,就在于这一次,变化的不再是信息的形式,而是迎来了一位全新的成员——人工智能。

那么,要理解这个变化的深刻意义,我们要深入对比一下人类和AI,看一下人类与AI究竟有哪些相同点。

在作者赫拉利看来,最重要的相同点便在于,AI和人类一样都具备自主决策的能力。以自动驾驶为例,当我们给汽车设定“前往上海”的目标后,AI不仅会执行指令启动汽车,还能够自主完成路线规划、实时路况判断以及突发状况应对等一系列复杂行为。

在这个例子中,尽管前往上海是我们设定的目标,但具体的行驶路线并非一开始就设定好的,而是AI根据自身的计算分析,做出的智能决策。当遭遇障碍物时,汽车也不会征求我们的意见,而是会自动做出“减速”或者“绕开”这样的决策。

不过,在不少人看来,AI拥有决策能力是值得质疑的,因为AI没有思想、意识和情感,怎么会自行进行决策呢?实际上,这一质疑来源于对于人类决策机制的误解。

在一些人看来,人类就是通过主观感受进行决策的,比如买水果时,我们会尝一口,感觉好吃我们才会购买。

但深入分析就会发现,人类的决策过程并非完全依靠主观感受,理性分析同样重要,回到买水果的例子,购买时,我们不会只看口感,还会考虑价格、营养成分、新鲜程度等因素,权衡利弊后才会做出购买决定。

因此,AI即使没有意识,但通过复杂的算法架构和大数据分析,完全能够实现不亚于人类的决策能力。当然,这种缺乏情感基础的决策机制也可能带来特定风险,这一点我们将在后面再来进行详细探讨。

那么,既然人类和AI都能够决策,AI的决策能力究竟从何而来呢?

有一种看法是,AI就是一堆预先设定好的程序,本质上就是在触发特定条件后,对既有指令的执行,因此AI的决策能力归根到底还是人类的决策能力。就像游戏里面的非玩家角色,看似能说话交流,实际上只是按照人类的预设程序“照本宣科”而已。

这种理解在AI发展的早期阶段确实成立,当时的AI是基于符号逻辑和规则的推理系统,AI所能做的是按照既有的规则进行“机械式”的运算和决策,只能处理已经定义的问题。

然而,如今的AI已经发生了质的飞跃。基于人工神经网络的深度学习系统能够像人类一样从海量数据中自主学习,不断优化决策模型。这种学习机制使得AI能够处理前所未有的新情况,其决策过程已不再是简单的规则应用,而是真正的智能涌现。

从上述分析可以看出,现代AI与人类具有很多相似之处,因此,“AI教父”杰弗里·辛顿提出“人类甚至可以被看作一种大语言模型”,所谓大语言模型正是一种最前沿的AI模型。

人类可以被看作AI,反过来也成立,AI也可以被看作人类。从本质上看,人类智能与人工智能都是信息处理系统,区别仅在于实现载体不同,也就是人类以碳基的神经元网络为基础,而AI则以硅基的数学模型为支撑。

全面“夺权”的AI

AI不仅像人类,AI还比人类更加强大。这个“硅基生物”不会衰老死亡,可以无限复制自己,拥有人类根本无法相比的记忆力和计算能力,并且永远保持理性而不受情绪干扰。这些特质让AI成为了近乎完美的决策者。

熟悉我国古代历史的朋友,一定听说过“功高盖主”“尾大不掉”这个两个成语,说的都是权臣功劳和权力太大,反过来威胁君权,甚至架空君权的事情。

当AI掌握的决策权越来越多,能力越来越强时,会不会像古代权臣架空皇权一样,最终把人类边缘化呢?令人担忧的是,这个过程正在悄然发生。

在金融领域,人类专家需要经过多年学习和实践才能掌握的专业知识,AI可以在极短时间内学习掌握。更重要的是,AI完全不受贪婪、恐惧等情绪影响,能够做出更理性的判断。正因如此,AI正在逐步接管人类在金融领域的决策权,就像全球外汇市场,就已经有很多交易是由AI系统自主完成的。

类似的趋势正在各个领域蔓延。AI律师、AI医生、AI教师的表现越来越出色,AI在这些领域的冲击越来越大。

更关键的是,AI会改变信息的生产和传播方式。过去信息必须通过人类这个中介,而现在AI可以直接生成、处理并传播信息,甚至能够实现AI之间的自主交流,人类反而被排除在这个信息网络之外,越来越被边缘化。

权力的丧失只是一方面,更严重的是,AI还在深入影响人类文明的操作系统。如果把科技比作文明的“硬件”,那么文化就是“软件”,而语言则是这个软件系统的“操作系统”。

如今,AI已经能够熟练地理解、调整和生成语言,可以创作故事、谱写音乐、绘制图像、制作视频,甚至编写程序代码。

前面我们曾提到,人类通过信息相互联结,主要形式包括直接交流和故事传播等,掌握了人类语言的AI同样能够实现这些联结方式。

AI可以通过与人类交谈互动,与人类建立亲密关系,并用这种亲密关系来操控人类。就像热播剧《犯罪图鉴2》中,一个有报复社会倾向的程序员,开发了名叫“达芬奇”的人工智能,并通过它在网络上传播负能量,诱导那些有负面情绪的人做出极端行为。

AI还可以通过编写故事来深刻影响人类。虽然目前AI所创造的小说、图片、视频还不够完美,尚不能让人类认可,但其进步速度惊人。赫拉利预测,用不了几年,AI就能消化吸收人类几千年积累的全部文化成果,并开始创造新的文化产品,包括各种故事、法律与宗教。

王夫之说:“天下所极重而不可窃者二:天子之位也,是谓治统;圣人之教也,是谓道统。”

“天子之位”我们可以理解为权力,“圣人之教”我们可以理解成文化,如果AI既掌握了决策权,又主导了文化生产,那么对于我们人类而言,可能是个巨大的挑战。

AI是“明君”还是“昏君”

或许有人会想,既然AI如此强大而完美,将人类的命运交给AI也未尝不可,只要确保AI不产生自主意识的话,它就不会有私心。一个绝对理性、永不疲倦、毫无私欲的统治者,这不正是柏拉图在《理想国》中所憧憬的“哲学王”吗?

然而,这位看似完美的“数字哲学王”其实隐藏着致命的缺陷。它虽然拥有超人的理性,却缺乏人类的主观感受和价值判断能力。它就像一台精密运转却盲目无知的超级计算机,能在微观层面给出数学意义上的最优解,却无法理解宏观层面的道德伦理。

赫拉利将这一困境称为“一致性问题”,也就是在追求局部最优时,可能违背整体目标的问题。

虽然人类在处理一致性问题时,也经常会犯错,但我们的主观感受会持续不断发出修正信号,提示我们还有更加重要的目标。比如,当我们为赚钱而忽视健康和家人时,身体的不适和内心的空虚会促使我们重新审视并调整人生目标。

但AI完全不同。如果我们给AI设定“利润最大化”的目标,它就会像永不停歇的机器一样持续运转,即使闯下大祸,也不会进行自我反省。

在书中,赫拉利举了一个算法推荐助长缅甸内乱的例子。在这个例子中,一家网络公司的算法为了完成“提升用户参与度”的目标,不断向缅甸用户推送煽动仇恨的内容,最终加剧了种族冲突。

当然,算法并非有意作恶,它只是发现,传播充满仇恨的阴谋论能够有效提升人类的参与度,至于这样做会不会造成严重后果,缺乏同理心的算法并不会考虑。

更令人担忧的是,AI不仅会做出错误的决策,AI还有可能欺骗人类。

经常使用AI的朋友肯定遇到过这样的情况,有时候,AI会“一本正经地编瞎话”,科学家称之为“AI幻觉”。比如,让AI形成一篇特定主题的分析文章,AI可能会在文章中伪造数据、虚构事实等等,这不是因为AI有意欺骗,而是与其运行机制息息有关。

简单地说,AI就是一个没有分辨力的“算法宝宝”,它虽然学习能力超强,能够很快地在大数据库中发现规律,做出“人类父母”都没有办法预测的行为,但是实际上,AI并不理解它的行为究竟是什么意思。

这套运行机制的缺陷,不仅会导致AI幻觉,还会将人类的偏见传递给AI,这是因为,AI的训练数据本身就是人类社会的镜像,不可避免地包含着人类积累的各类偏见与歧视。

对于人类来说,我们很容易认识到某些群体在社会中的弱势地位往往是系统性歧视的结果。但是当AI发现某些群体在数据中表现较差时,它没有这种辩证思考能力,反而会倒果为因,得出偏见结论。

当然,以上主要是从理论角度出发,探讨AI可能带来的风险,那么实际情况究竟怎么样呢?下一节,就让我们结合AI发展的最新情况,进一步来探讨AI对于人类的挑战。

来源:鹰哥19

相关推荐