摘要:巴黎人工智能行动峰会上,冯德莱恩大胆宣布了“欧洲将加入人工智能竞赛”,其中包含了一项 1500 亿欧元的人工智能投资计划。巴黎峰会结束后,欧盟委员会立即撤回了旨在补充欧盟《人工智能法案》的《人工智能责任指令》。欧盟的通信网络、内容和技术总司负责人又公开表示:未
为了在“人工智能军备竞赛”的关键时刻不至永远落于中美之后,欧盟最近做出了一个历史性的决定:向人工智能投入大量资金,同时努力减少监管。
巴黎人工智能行动峰会上,冯德莱恩大胆宣布了“欧洲将加入人工智能竞赛”,其中包含了一项 1500 亿欧元的人工智能投资计划。巴黎峰会结束后,欧盟委员会立即撤回了旨在补充欧盟《人工智能法案》的《人工智能责任指令》。欧盟的通信网络、内容和技术总司负责人又公开表示:未来五年,该司不会出台任何人工智能法规。这一举动当然收获了大型科技公司的欢呼和支持,但作为全球科技监管堡垒的欧盟竟然也开始“厌恶监管”,不禁让人猜测,欧盟的《人工智能法案》或不再具有“布鲁塞尔效应”,而所有持有AI末日论的信仰者或许因此失去了最后一丝希望。如果连欧洲都不再关心AI的安全问题,而只在乎“输赢”,那么还有谁会真正关心如何控制人工智能可能具备的“毁灭性力量”?
更关键的是,人类作为一个整体,不惜代价地全力发展人工智能,真的是一个明智的决定吗?究竟是什么塑造了人类美好的生活?我们真的能相信计算机算法会创造一个更美好的世界吗?
《时间简史》的作者尤瓦尔·赫拉利,在其2024年新书《智人之上:从石器时代到AI时代的信息网络简史》中提出了上述的问题。作者重新梳理了各个文明的通信系统历史,将细致研究的细节与深思熟虑的可能性结合在一起,根据我们去过的地方预测我们可能去的地方。
《智人之上》对历史的描述和对未来的预测,既引人入胜,又令人毛骨悚然。
01.
可好可坏的“信息网络史”
人工智能的兴起,是历史上最大的一场信息革命,但要真正理解这场革命,就必须与过去的信息革命作对比。
赫拉利在这本书中最深刻的观察之一,在于其对“信息”本质的思考。他在开篇提到:智人之所以成功,并非因为更聪明更智慧,而是因为智人能够懂得运用信息,并把许多人联结起来进行大规模合作——这对于我们理解当下和展望未来,至关重要。
作者强调,信息的作用并非反映“真相”或“现实”,而是“联结”,也就是本书的英文书名Nexus的意思——只要能将各个不同的点联结成网络,从而创造出新的现实,就可以称之为“信息”。也就是说,信息并非一定要“告诉”我们什么,而是要把事物“组织”起来。
这里棘手的问题是,信息有时候能够呈现现实,但大多数时候并没有;而且当信息呈现的是错误的现实,它也能成为一种社会联结。因此,人类在运用“信息联结”这种能力的历史过程中,发明了各种信息技术,从而大大加强了联结与合作,却不一定以更真实的方式来呈现这个世界,反而常常伴随着相信谎言、错误与幻想。
带着这一“信息”的基础观念,作者带领我们重新回顾并解读了石器时代、圣经的正典化、纳粹主义以及今天民粹主义复苏等时期的信息技术以及人类决策,让我们在无数例证中看到,信息技术无论表现为官僚系统的文件,还是宗教经典的《圣经》,抑或是人工智能,它作为“联络”人类群体的威力正在逐渐增强,但从性质来说,信息技术可能是好事,也可能坏事,取决于它在真理与秩序之间选择了怎样权重。
要理解作者的观点,我们还必须理解作者强烈反对一个概念:天真的信息观。这种观点认为:信息本质上是好事,拥有越多的信息越好,足够的信息意味着智慧的成长;信息的作用就是呈现现实,解决错误与虚假信息问题,方法就是提供更多信息。
这也正是赫拉利全书对世人最大的提醒。因为几乎所有的大型科技企业,都向世人灌输这一观念,潜移默化地让我们以为,更快、更多等同于更好:
谷歌:整合全球信息,使人人皆可访问并从中受益。
脸书:帮助大家分享更多信息,让世界更加开放,促进人与人之间的理解。
通过大量历史例证,本书从正反两方面历史经验的梳理,一再强调并印证他所持有的“信息观”:
“拥有大量信息并不能保证得到真相,也无法保证能维持秩序。使用信息时既要找出真相又要维持秩序,这是一个极其困难的过程,更糟糕的是,这两个方面还常常互相矛盾……仅仅让信息技术变得更快、更有效率,不一定会让世界变得更美好,相反,这只会让我们更迫切地需要在真相与秩序之间达到平衡。”
“从印刷术与猎巫的历史可以看出,自由的信息市场并不一定能让人发现并改正自己的错误,因为在这样的信息市场里,暴行的优先级可能比真理与真相更高。”
用社交媒体的例子来说,虽然脸书在总体上认为“分享更多信息可以促进人类的相互理解”,但有大量针对这一平台的研究却表明,该平台导致大量未成年人的低自尊、抑郁和缺乏社交技能,甚至有很多网络霸凌;2016年还曾因为在缅甸山东种族冲突情绪而臭名昭著。
而脸书甚至不能保证在其平台上信息的准确性。脸书的母公司Meta近期对其内容审核政策进行了重大改革,从第三方事实核查程序转而采取X正在使用的“社区笔记模式”。但这种政策改革只能在一定程度上缓解“多做多错”的责任问题,却并不一定能够保证其平台之上信息准确率的提高。因为从经验来看,社区笔记的模式——即使用大量正确信息覆盖和修正虚假信息的方式——未能阻止错误信息在X传播,就连马斯克也经常纠正他自己在X上发布的虚假信息。
02.
歌德和回形针的警告?
我们对计算机的理解,其实深受传统神话的影响。人工智能做出的决定,跟神一样,对我们来说既绝对正确又高深莫测。
自从OpenAI推出了初代ChatGPT,我们对于人工智能强大的赞扬和对其“一本正经胡说八道”的嘲笑,几乎一样多。
但很快,随着大科技企业在竞争中不断加强和迭代其大模型的数据、算力和训练方式,各个政府、企业、银行、学校等机构大面积采用人工智能进入其服务和工作系统,对其质疑的声音越来越少。在资本叙事中,一个越发强大和臻于完美的人工智能不仅效率高得吓人,而且其自学成果正在超越人类的智慧和理解能力。我们越来越迷信于人工智能的“无所不能”,甚至把它当作是万金油。
作者赫拉利将“高深莫测”的人工智能在官僚体系中的应用比作“新神登场”。
赫拉利认为,制造新的神话,本就是官僚体系存在和发展的必然。但“神话的质量”有高低之别,就像“美国宪法”因为具有自我修正机制,就比纳粹主义的神话对人类社会要有利得多。
人工智能所制造神话,相比于历史上其他神话,威力和影响力都要强大得多,也因此,它给人类犯错的空间也会更小。人工智能算法越来越复杂,以至于任何一个人——哪怕是设计它的人——它如何得出最终的结论,这就是我们常说的“黑匣子”,因此一旦人类给其目标设定错误,因其前所未有的效率,当人类发现自己错了的时候,很可能再无力回天。
这里,赫拉利引用了哲学家波斯特洛姆在《超级智能》中的“回形针”思想实验,这实验相当于歌德《魔法师学徒》的现代版:
一家回形针工厂给其人工智能设定了一个任务:生产回形针,越多越好。为了完成这个目标,这台回形针计算机征服了整个地球,杀死了所有人类,并派出远征队占领了更多行星,取得整个银河系的资源,就是为了“生产更多回形针”。
歌德的叙事诗《魔法师学徒》和“回形针”实验都给人类一个再清楚不过的教训:永远别去召唤自己控制不了的力量。
当然,这是对人工智能“末日”的一种悲观想象,尽管我们有理由这么认为。本书提出的更接近现实的警告是:人工智能的确高深莫测,如果我们将越来越多的社会决策交给这种“非人类、令人难以理解”的人工智能,这个社会机制就会比金融体系更难于理解,也就很可能出现比全球金融危机更糟糕的社会危机。
在“高深莫测”方面,赫拉利举了2个相反的例子,值得我们深思。
一个例子是2016年,AlphaGo击败了韩国围棋冠军。这个事件之所以成为“人工智能革命的象征”,并不只是人工智能击败人类,而是AlphaGo赢得比赛最关键的第37手。它本来被看作是必败的策略,最后却因这一关键的步骤而让AlphaGo赢得比赛。在两千多年形成的围棋传统中,人类心智无法想象这一步棋;最关键的是,连制造它的团队都无法解释,AlphaGo是如何决定的这一步骤。
另一个例子,是2013年美国的一个驾车枪击案。在该案中,法官在没有完全证据证明被告就是枪击案犯的情况下,依据一款COMPAS的犯罪风险评估软件,认定被告具有“高犯罪风险”,因此判处其6年有期徒刑。参与该案的一位大法官提到,已经有相关人士向法官们长篇大论地解释算法的内容,但他们仍旧一头雾水。不过,这并没有阻止美国最高法院对被告上诉的驳回,更没有阻止越来越多国家的法院开始采用类似的犯罪风险评估算法。
03.
自我修正机制:人类的机会?
人类确实有充分的理由对强大的新科技抱持几分敬畏……新科技在历史上之所以常常带来灾难,并不是科技本身有什么问题,而是人类得花点时间才能学会善用科技。
赫拉利本人不使用智能手机,据说也是全球知名人物中上网最少的人之一。但赫拉利绝非一个厌恶科技、一味制造科技恐慌的人,他在书中从未断言,人类必然因为创造更高科技的信息技术而终将走向自我毁灭的结局。尽管他总是忍不住提到纳粹主义作为工业革命带来的灾难性后果。
如果用电影打个比方,他的思想并不像《黑客帝国》设定那般黑暗,而与《复仇者联盟2:奥创纪元》倒有些相似——人工智能的未来可能走向奥创,也可能是幻视。
奥创和幻视都是人类技术意外的产物,奥创之所以暗黑,是因为他追求极致的力量和效率,所以要用灭绝人类的方式促使其产生进化;而幻视则因雷神的协助而产生了心灵与人工智能技术的结合,所以尽管他与奥创共享了一套信息系统,也同样认为人类命运“在劫难逃”,但他说,他选择“生命”和“美丽”。赫拉利在人类历史或好或坏的抉择中,看到这种来自人性当中“自我修正机制”的重要性和希望所在。
尽管人类从来没好好想想正在创造的“非生物的信息网络”会有怎样的影响,但“历史是不确定的,至少在未来几年里,我们智人仍有能力塑造我们的未来”。
“如果缺乏强有力的自我修正机制,人工智能将有能力宣扬一些扭曲的世界观,主张肆无忌惮的权力滥用,以及煽动让人静海的新一轮猎物行动……想要打造更有智慧的网络,需要只是我们……认真投入一项困难但平凡无奇的工作:为各种机构制度打造强大的自我修正机制”
“自我修正机制的第一步,就是认识到人类会犯错、会堕落。”
*****
回到开头的新闻,欧盟也开始大力投入人工智能的发展,并且似乎为此放缓了其本来的法案执行。这种“不顾一切”追求全球主导权的架势,究竟是聪明,还是反受其害呢?
尽管我并不认为欧盟的《人工智能法案》(以及欧盟发布的所有数字法规)从立法技术上有多么先进或完美,但它在整个人类文明当中其实充当了一个“自我修正机制”的角色,让“布鲁塞尔效应”所及之处形成了一块科技狂飙的缓冲地带。
就像《智人之上》这本书说的,我们目前还处在一个人工智能“正典化”的时期,我们还有机会为“人工智能宝宝”挑选更好训练数据、设置更安全的护栏,并小心地在实验室里试错。仍旧期待现今的政治领导人和科技领袖、工程师,能够更智慧、更小心地探讨人工智能的政策和方法,为人类文明留有余地。
来源:互联网法律评论