AI是科技福音,还是养虎为患?

B站影视 港台电影 2025-08-31 10:13 2

摘要:起床时,智能语音助手用温柔的声音将我们唤醒;工作时,ChatGPT、DeepSeek等AI工具是我们得力的“数字帮手”;闲暇时,抖音的推荐算法精准投喂我们感兴趣的内容;生病时,我们可以咨询AI健康顾问;开车时,智能驾驶帮助我们成功避开障碍物;投诉时,首先接听电

《智人之上》作者:尤瓦尔·赫拉利

​今天我们要讲的书,叫作《智人之上》。

在AI技术飞速发展的今天,人工智能已经渗透到我们生产生活的方方面面。

起床时,智能语音助手用温柔的声音将我们唤醒;工作时,ChatGPT、DeepSeek等AI工具是我们得力的“数字帮手”;闲暇时,抖音的推荐算法精准投喂我们感兴趣的内容;生病时,我们可以咨询AI健康顾问;开车时,智能驾驶帮助我们成功避开障碍物;投诉时,首先接听电话的大部分是AI客服;炒股时,与我们博弈的很可能是量化交易算法……

这些智能工具确实带来了便捷的服务,仿佛AI时代必然通向一个更美好的未来。但事实真的如此吗?思想界的先知们并不这样乐观。

在电影《黑客帝国》中,世界被人工智能系统矩阵控制,人类失去了自由,沉溺在矩阵编织的虚幻世界中。在电影《终结者》里,机器人自我意识觉醒,对人类发动了进攻。

这些可怕的预言都在警示我们:当AI获得自主意识,人类或将成为AI的奴隶。

然而,对于这一推论,著名的历史学家尤瓦尔·赫拉利在《智人之上》这本中提出了更为深刻的洞见,那就是:真正可怕的并不是机器的觉醒,而是人类失去对信息网络的掌控,在不知不觉间交出了文明的主导权。

那么,究竟什么是信息网络,信息网络为什么对人类文明有如此重要的意义?以及人工智能凭什么能够主导信息网络呢?

在回答这些问题之前,我们有必要先要了解一下本书的作者:尤瓦尔·赫拉利。

尤瓦尔·赫拉利是当代享誉世界的历史学家、哲学家,他的著作《人类简史》《未来简史》《今日简史》一度风靡全球,而《智人之上》正是他最新力作,是他对于人类社会的最新观察。

在书中,他以历史学家的恢弘视野,以信息网络史为坐标,细致详实地探讨了人工智能可能会带来的种种风险,为我们理解人工智能提供了一个全新视角。

好,那么接下来,就让我们一起打开《智人之上》,开启这场关于人类命运的深度思考。

石器时代以来的信息网络简史

人类的历史波澜壮阔,解读历史的密码却始终扑朔迷离。那么,是否存在一个视角,能够穿透表象,揭示历史演进的根本动力呢?

儒家认为历史发展的内在主线是礼乐文明,礼兴则治,礼坏则乱。孔子认为夏商周三代的“礼”都是一脉相承的,即使百世之后,历史内核的“礼”也不会改变。

马克思主义则强调阶级斗争的重要性,1848年的《共产党宣言》指出“至今一切社会的历史都是阶级斗争的历史”。

而本书的作者尤瓦尔·赫拉利提出了一个颇具颠覆性的观点。在他看来,“历史真正的主角一直都是信息,而非智人”。赫拉利这一观点,揭示了人类文明演进的底层逻辑。

人类确实创造了历史,但关键在于我们是以哪种方式创造了历史。单个的人类个体渺小而无力,只有当人类凝聚成整体,才能汇聚起磅礴力量,创造出令人惊叹的奇迹。从本质上说,人类历史的辉煌篇章,都是群体协作的壮丽史诗。

那么,我们靠什么建立合作网络呢?答案就是“信息”。信息就是那个维持合作网络联结的黏合剂。

信息网络1.0时代,以人与人之间直接的信息交流为主要特征。在这个时代,人们需要通过长时间的相处,逐步积累对彼此的了解和认同,从而构建起信任关系。

信任建立的缓慢过程,限制了人类群体规模的扩张,使得人类所能组建的群体规模一般只能维持在几十人左右。这让古人类在面对复杂多变的自然环境和其他生物竞争时,显得弱小且无助。

真正推动人类超过其他种族,成为世界霸主的是信息网络2.0时代的出现,在这个时代,“故事”是信息的核心形式。

此时,随着人类大脑的进化以及语言能力的丰富,我们的祖先智人具备了讲述并相信各种故事的能力,这种能力使他们能够沉浸于故事所营造的虚拟世界中,并为之产生强烈的情感共鸣。

与基于长时间相处才能建立的合作关系不同,一个完美的故事具有强大的感染力和凝聚力,它能够在瞬间打破个体之间的隔阂,让人们迅速建立起相同的身份认同,进而形成紧密的合作关系。

因此,在故事所构建的信息网络中,群体规模在理论上是没有上限的。这种合作范围可以从小规模的部落扩展到一个庞大的国家,甚至能够覆盖全人类。故事为人类社会的大规模协作提供了坚实的基础。

在赫拉利看来,商业品牌本质上也是一种故事,它通过讲述特定的品牌故事来塑造品牌形象;宗教同样是以故事为载体,传播教义和价值观;国家则是基于一系列共同的故事和历史记忆而形成的政治共同体。

故事就是我们人类社会的底层代码,它以无形的力量,塑造了我们的思维、行为与价值观,让我们知道自己是谁,要做什么,该做什么。

当故事将人类合作规模扩大到一定程度后,一个新的问题便随之出现,那就是:如何对如此庞大的人群实施有效的管理呢?

能否单靠故事实施管理呢?答案是不行的。这是因为,为了降低理解门槛,扩大故事的传播范围和受众群体,故事往往会被进行极端简化处理,甚至会融入虚构的元素。这种经过简化与虚构的故事,虽然在激发人们的情感共鸣上效果明显,但并不“擅长”处理现实问题。

因此,为了适应社会发展的需求,信息网络3.0时代——文件时代,应运而生。

文件与故事在信息处理方式上存在着显著的区别。故事是对现实的高度抽象,它通过提炼关键情节和核心主题,以简洁生动的方式传达信息和价值观;而文件则是对现实细节的详细记录,它力求全面、准确地反映事物的本来面目,为决策和管理提供可靠的依据。

文件的出现使得复杂的社会治理成为可能。通过文件,海量的社会信息得以汇总和整理,官僚们将这些信息转化为一份份报告和报表。上级通过阅读这些文件,迅速了解基层的实际情况,从而做出相应的决策。

文件的诞生还导致了权力的转移。在文件成为社会治理的重要工具后,文件开始承载权力:谁能够掌握文件,谁就能够影响决策的制定和执行,从而拥有实际权力。

以日常生活中学生购买火车打折为例,售票员并不直接看学生本人的身份来判断是否给予折扣优惠,而是依据“学生证”这一文件来做出决定。

当然,虽然文件会造成一些形式主义和官僚主义的问题,但不得不承认,正是文件的存在和发展,才使得社会能够建立起有序的管理体系,保障社会的正常运转和持续发展。

文件的出现标志着信息网络步入成熟阶段,从此,无论是农业社会还是工业社会,人类的信息网络都是“故事+文件”的模式,一直到AI时代的到来。

AI对信息网络的冲击

纵观石器时代以来的历史,信息网络的发展历程本质上就是一部信息形式的演变史。

从最初人与人之间面对面的直接交流,到口口相传的故事讲述,再到依赖书面文件进行信息传递,尽管信息的形式发生了变化,但信息网络的核心主体始终是人类。信息由人类创造,并通过人与人之间的互动完成传递,最终服务于人类的需求。

然而,随着AI时代的来临,这一切或将迎来根本性的变革。这一次,变化的不再是信息的形式,而是信息网络迎来了一位全新成员——人工智能,也就是AI。

在赫拉利看来,人工智能是历史上首个能够自行处理信息、自主做出决策的技术。它与过去人类创造的所有工具截然不同,以往的工具,无论是简单的石器还是复杂的机器,都只是缺乏思考能力的“死物”,决策权牢牢掌握在人类手中。但人工智能就不一样了,它不再是单纯的工具,而是一个能够自主决策的行为主体。

在此,我们需要区分“智能”与“意识”的概念。大多数人对人工智能的担忧,源于害怕它产生自我意识,从而摆脱人类的控制。这种担忧背后隐含着一个假设:只有具备意识,才能做出决策。

这实际上是一种误解。“智能”与“意识”之间并不存在必然的联系。

智能是输入信息,输出实现目标方案的能力,而意识则是体验主观感受的能力。

比如,细菌或许不具备意识,但它们却展现出了一定的智能。在显微镜下,我们可以观察到细菌遇到食物时会进食,碰到危险时会“游”走。

因此,尽管AI没有意识,但这并不妨碍它拥有自主决策的智能。当然,随着AI的不断发展,未来它也有可能发展出意识。但这是无法预测的,毕竟我们连人类自身是如何产生意识的都尚未完全弄清楚。

那么,AI拥有这种能力究竟意味着什么呢?

这里潜藏的最严峻的问题便是:人工智能所作出的决策是否真的有利于人类呢?

对此,或许有人会不以为然,觉得人工智能难道会不听人类的话吗?如果它不听话,我们直接把它给“断电”不就行了吗?

的确,人工智能的目标都是由人类设定的。从理论上讲,它只能围绕着人类设定的目标努力,似乎不可能脱离人类的掌控。

但世界上从来就不存在绝对的事情。现实世界的目标都是分层次的,低层次目标与高层次目标之间,并非总能保持一致,AI很有可能为了实现低层次目标,而危害到人类。

赫拉利介绍了一个极端的思想实验:有一家回形针工厂购买了一台超级智能计算机,人类给它安排了一项简单的任务,那就是“生产回形针”。结果,这台超级智能计算机竟然杀死了所有人类,目的仅仅是为了抢占地球资源生产无数的回形针。

这个例子可能有些夸张,但现实生活中类似逻辑的例子并非完全不存在。比如,AI算法为了吸引流量,可能会偏向于推荐宣扬群体对立的短视频,这无疑会激化社会矛盾。

那么,这个问题有没有可能规避掉呢?从理论上来说,或许只要我们为AI确立一个明确无误、无可动摇的终极目标,我们就不用担心AI失控了。

但遗憾的是,这一点并不现实,因为它的难点在于终极目标难以确定。

首先,终极目标所设立的普世价值往往只适用于人类,对于没有人类情感的AI来说并不适用。比如,“己所不欲,勿施于人”,而AI根本不是生物,它们本身没有像人类一样的“不欲”,所以对于AI而言,这句话便无法彻底理解。

其次,终极目标必然包含一些难以界定的概念。比如要增加人类的快乐、减少人类的痛苦。那么究竟什么是快乐、什么是痛苦呢?再比如,安乐死解脱了病人的痛苦,但却剥夺了他人的生命。在这种两难抉择中,如何计算选择两端的“快乐值”或者“痛苦值”呢?

如果不能设定终极目标,其实还有一种解决方案。我们可以像过去的信息网络一样,建立各种错误修正机制,定期开展审查,不断地修正目标。这样,即使一时出错,也不会造成严重后果。

但是这一方案也不可行,原因在于作为AI的造物主,人类其实并不太了解AI的决策过程。

以韩国棋手李世石与AlphaGo的对弈为例,当棋局下到第37手时,AlphaGo下了一步几乎所有人都认为是“臭棋”的一步,但随着终局逼近,当初“错误”的一手被证明那才是决定成败的关键妙手。

从这个例子我们可以看出,人工智能在某些方面的计算能力和信息处理能力明显超过了人类。在这种情况下,我们如何能够正确理解AI的决策,并修正AI的决策行为呢?

AI的挑战还不止于此,它还会侵入人类文明的操作系统,也就是人类的语言。现在AI已经拥有了不逊于人类的语言能力,它完全可以运用人类的语言来创造故事、撰写文件。那么此时,我们还能分得清人类和AI吗?

在许多人看来,这也没有什么大不了的,只要AI创造的是有价值的东西,我们也能利用。不过,如果AI利用这种特点做坏事呢?比如,干扰舆论、影响人类决策?再比如,制造虚假信息、欺骗用户?再比如,过度迎合用户,助长负面情绪?等等。

实际上,在现实生活中,这种现象已经出现。舆论场上,机器人水军操控评论,影响舆情,阻碍公众监督权的正常行使;查找数据时,很多人发现AI不会分辨信息真伪,甚至还会伪造数据和文献出处;与AI聊天,它们会一味迎合我们,即使我们的想法可能很偏激,AI不仅不会制止,反而还会鼓励。

更麻烦的问题在于——AI的发展实在太快了。

第一台数字计算机问世于80年前,当时它非常笨重,足足有两个羽毛球场那么大,每秒只能进行几千次的计算。但是现在,我们研发的量子计算机每秒计算次数已经能达到惊人的百万亿次。

所以,即使现在来看AI还不算强大,但是我们必须未雨绸缪,提前做出应对。

如何应对AI时代的挑战

那么,在探讨如何应对AI时代的挑战之前,我们需要先来澄清一个认知误区,那就是“科学技术决定论”。这一理论认为科技发展所带来的社会变化是确定的,人类只能被动地顺应科技带来的变化。

的确,新的信息技术确实会改变社会,但是决定社会改变方向的依然是我们人类自己。

就像火药既可以用来制作烟花爆竹庆祝和平,也可以用来制作武器发动战争。网络既传播了大量的有用信息,使得人类的联系交流更加紧密,同时也是有害信息的温床,滋生了许多社会问题。

由此可见,我们人类必须为自己所创造出来的一切承担起应有的责任。虽然为AI设定终极目标不太可能实现,但我们绝不能因此消极懈怠。相反,我们应当大力加强对AI的监管力度,特别是要赋予公众充分的监督权。

在此之前,我们必须解决AI运行机制晦涩难懂的问题。其中的关键是,我们要争取到一项权利,就是“得到解释的权利”。

我们普通人很难理解AI的运作逻辑,但是专家团队可以,让他们去评估算法的决策是否合理,这一做法是可行的。

另外,专家团队还得把各项评估结果以通俗易懂的方式“翻译”成普通人能够理解的故事。只有这样,公众才能真正参与到AI的监管过程中来,才能防止相关从业者为了行业利益而置公众利益于不顾,确保AI的发展始终符合大众的利益。

与此同时,在一些关键领域,我们必须对人工智能的发展进行必要的限制。比如,在隐私权保护方面,人工智能不能随意侵犯个人的隐私空间,窃取和滥用个人敏感信息;在公共对话领域,人工智能也不能肆意介入,干扰正常的公共舆论秩序。

特别需要强调的是,我们要坚决杜绝AI“假冒人类”的行为。这并不意味着要全面禁止所有AI程序参与公共讨论和舆论监督,毕竟AI在某些时候也能够提供一些有益的思路和见解,为公共事务的决策提供参考。

但前提是,AI必须明确表明自己的身份,不能假冒成人类,以混淆视听、伪造民意,从而破坏舆论的公正性和真实性。

目前,全球各国在AI领域的竞争日益激烈,不少国家都将AI的发展视为下一次科技革命的关键突破口,纷纷加大投入,力争在这场科技竞赛中占据领先地位,而我们中国无疑是其中的佼佼者。

作为一名历史学家,赫拉利也非常了解我们中国在AI领域的发展成就,他认为,中国是最早意识到人工智能重要性的国家之一,并且在多项人工智能相关领域取得了领先全球的成就,与美国不相上下。

赫拉利着重指出的是,要高度警惕AI领域“竞赛”所引发的种种撕裂问题,以及由此导致对AI风险的漠视。如果世界各国只强调与其他国家的竞争,一味追求让AI更强大,而忽视了对于AI的控制,后果可能是灾难性的。

正是因为如此,当下加强全球合作、携手应对AI挑战已刻不容缓。赫拉利认为,每个国家和民族都有其独特的历史、文化和价值观,这些差异是客观存在的,全球合作不一定非要先消除所有的文化、社会与政治差异。正确的做法应当是在尊重各国各民族差异的基础上,加强国家间的合作,共同遵守某些全球规则,将全人类的长期利益置于少数人的短期利益之上。

关键时刻即将到来

一般认为,目前的AI智能水平可能与普通人的水平差不多,在某些方面,甚至可能要稍弱一些,那么,人工智能什么时候会在智能水平上实现对人类的超越呢?

包括埃隆·马斯克在内的行业大佬普遍预测,在2030年以前,AI就将进入AGI时代,所谓AGI,即人工通用智能,也就是全能型AI。一旦达到这一阶段,AI的智能水平将与人类精英不相上下。

然而,这并非终点。在AGI之上,还有更为强大的ASI,即人工超级智能。它指的是远超人类所有认知能力总和的超级人工智能。那么,从AGI跨越到ASI,这一关键转变究竟需要多久呢?有的专业人士预测,可能只需要一年时间。

由此可见,AI超越人类这一具有里程碑意义的关键时刻,正在悄然逼近,而留给我们准备和应对的时间已然不多!

今年的7月份,诺贝尔物理学奖得主,素有“AI教父”之称的杰弗里·辛顿,在上海举办的2025世界人工智能大会上,向全世界发出了郑重警告,他说,AI就如同人类亲手养大的“小虎崽”,当下它或许温顺乖巧,但未来,这只逐渐成长的老虎极有可能反过来“操纵负责将它关闭的人类”。

毫无疑问,辛顿给出的警告是值得人们深思的。但回归现实,对于我们大多数普通人来说,更重要的是要接触AI、了解AI、学习它,进而掌控它。因为,困顿和恐惧往往就源自于陌生和失控。

来源:鹰哥19

相关推荐