人工智能400年的历史是否预示着其未来?

B站影视 港台电影 2025-10-02 00:13 1

摘要:“我们从历史中学到的唯一教训是,我们从历史中什么也学不到。”黑格尔也是对的:历史的教训往往模糊不清。更糟糕的是,人们通常过于自大和/或无知,以至于即使是最清晰的历史警告信号也会被忽视。

探索人工智能的戏剧性演变,从早期概念到现代聊天机器人,以及它们为人类创造的不确定的未来。

作者:Allen Frances医学博士(杜克大学精神病学系的教授和名誉主席)

编译者:郭中孟 主任医师(江西省精神病院)

发布时间:2025-10-01

关于过去是否是未来良好预测器的三种竞争观点是:

“那些不从历史中学习的人注定会重蹈覆辙。”乔治·桑塔亚纳是正确的:过去是理解现在和规划未来的最佳教训。

“我们从历史中学到的唯一教训是,我们从历史中什么也学不到。”黑格尔也是对的:历史的教训往往模糊不清。更糟糕的是,人们通常过于自大和/或无知,以至于即使是最清晰的历史警告信号也会被忽视。

“历史不会重演,但历史确实有韵。”马克·吐温也是对的:每件事情都是多个相互作用的变量的复杂涌现结果。虽然没有什么事情可以完全预测,但历史确实会围绕一些熟悉的主题展开。

那么,人工智能(AI)400年的历史在预测其未来方面有多大的帮助呢?遗憾的是,帮助不多。AI的力量和影响力在过去4年里比之前的400年都要扩大,而且它开始以编程者未预期的方式行事。AI变得不再是一种“人工”的人类智能形式,而是一种新的“外星”智能形式,正在迅速发展,远远超出了我们的理解,并且只在部分程度上受我们控制。最近计算机能力的巨变可能是人类历史上的一个临界点,使我们无法可靠地从人类过去推断出AI的不确定未来。

尽管人工智能的历史不是一个可靠的预测器,但它确实制造了精彩的戏剧。我们会遇到人类智慧的最佳表现和人类愚行的最差表现——有时在同一个人身上。有人与机器之间的存在性战斗,发明者与发明之间的斗争,碳基智能与硅基智能之间的对抗。而最核心的问题是:当我们创造可以变得比我们聪明得多的聊天机器人时,我们是否在进行物种自杀?

在此,同我一起探索人工智能那引人入胜且错综复杂的400年历史:

1632:当笛卡尔不忙于革命数学和哲学时,他通过设计、建造和玩弄机械钟表和玩具来放松。他特别喜欢创造能够以惊人的真实方式移动的玩具动物。这使他想象到一个未来,人类可能会创造思考机器(他称之为“自动机”,我们现在称之为“聊天机器人”)。笛卡尔认为,机器没有不可克服的原因不能产生人类语言并执行人类的精神功能,但他坚持认为,没有任何机器能够拥有人类的意识或灵魂。

1673:莱布尼茨建议使用二进制系统进行算术计算,并创造了一种机械计算器(“差分机”),能够进行加、减、乘、除运算。他还提出,未来的计算器如果使用二进制系统,可能会发展出一种通用语言,以帮助回答科学和哲学问题。在莱布尼茨提出二进制建议后的140年,阿达·洛芙莱斯将莱布尼茨的二进制建议发展成了第一台计算机程序。

1791:伽伐尼通过展示刺激青蛙的大脑可以移动青蛙的腿,证明了电是生命的火花。从这个认识到人类思想也是电现象的产物,只是很小的一步。 但是直到另一个200年后,人类才制造出具有足够复杂电电路的机器来模拟人类大脑的运作。

1843:阿达·拜伦·洛芙莱斯(诗人之女)不仅发明了第一个计算机程序,还展示了计算机算法如何使用数字轻松地适应操作各种其他符号(例如,文字、音乐符号、图片)。3笛卡尔和莱布尼茨对思维机器可能性的抽象推测现在有了潜在的软件解决方案。不幸的是,没有人意识到在同一年也发明了一种可能的硬件解决方案——带有摩尔斯电码的电报二进制通信技术。如果当时有聪明人将洛芙莱斯的软件与电报的硬件连接起来,计算机革命可能会在1850年代而不是1950年代开始。

1904:第一个电子管被发明。之前的计算机依赖于机械装置或穿孔卡片系统,这些系统速度慢且功能有限。电子管为首次电子计算提供了可能。

1936:在一篇基础性论文中,阿兰·图灵详细阐述了洛芙莱斯的开创性编程工作。他提出了构建一台“通用机器”的数学和逻辑基础,这台机器能够计算一切。

1939-1945:战争的需要推动了开发能够破解Enigma密码的电子管计算机的快速进步。

1946: ENIAC是第一台通用数字计算机——它的电子管占满了整个房间。

1947:晶体管被发明了。1953年,第一台基于晶体管的计算机诞生了。这是通向越来越小的指数道路上的第一步。

1950:图灵开发了第一个实际的机器智能测试。由于他怀疑抽象的推测永远无法回答笛卡尔的基本问题(机器是否可以像人一样思考),图灵反而提出一个简单的操作标准:人类听众是否能可靠地区分人类语音和计算机语音?

1950年代:约翰·冯·诺依曼开发了必要的计算机架构,通过将计算机程序和它们将要分析的数据组合到相同的内存空间中,来创建现代聊天机器人。他还引入了元胞自动机的概念——这是笛卡尔自动机的扩展,为神经网络奠定了基础。

1957:第一个单层人工神经网络被发明。

1958:第一个带有集成电路的硅微芯片被发明,使多个晶体管能够紧密包装,大大提高了速度和功率。

1966:Weizenbaum创造了ELIZA——第一个聊天机器人(也是第一个聊天机器人治疗师)。ELIZA过于原始,无法通过图灵测试,但仍然足够吸引用户兴趣,使Weizenbaum相信聊天机器人可能会迅速演变成为对人类社会的威胁。他立即放弃所有人工智能工作,而是花了接下来的42年时间警告其危险。

1971: 第一块商用硅芯片大大加快了处理速度并降低了成本。戈登·摩尔提出了他的“指数增长定律”,预见性地预测芯片密度每两年会翻一番。今天的智能手机比ENIAC(占据一个房间,重达30吨)智能得多,且拥有更多的内存。

1997年:IBM的“深蓝”击败了人类国际象棋冠军加里·卡斯帕罗夫。

1999:图形处理单元(GPU)芯片由英伟达(NVIDIA)开发,用于计算机游戏。在历史上最大的讽刺之一中,计算机游戏芯片被证明是实现人工智能的基石。在25年内,英伟达从一家初创公司发展成为世界上最有价值的公司,市值达4300亿美元。

1999年: 库兹韦尔预测“人工智能”将在2029年实现:计算机的认知能力将在广泛领域内等于或超过人类智能。他预测到2045年将出现“奇点”——计算机将远远超过人类智能,我们无法理解或控制它们。

1986-2012:通过模仿硬件、软件和训练,逐步开发出越来越强大的思考机器,这些训练将大脑功能转化为人类思维。人工深度神经网络模仿了人类大脑中神经元连接的复杂性。算法技术、数据利用和强化学习方面的突破性进展融合在一起,推动了机器学习能力的突然和指数级的进步。

2015:深度学习在所有科学和技术领域中的潜在实际应用被探讨:自然语言处理、语音生成、计算机视觉、图像处理和创建、医疗保健、基因组学、蛋白质塑造、药物发现、金融建模等等。

2015:Sam Altman 和 Elon Musk 创建了 OpenAI,这是一家非营利公司,其崇高使命是保护人类免受快速发展的人工智能的潜在风险。

2017:注意力机制模型通过更接近人类认知工作的方式,彻底改变了神经网络架构。它利用了快速的并行数据处理,而不是之前较慢的串行处理。这使得分析更大型数据集成为可能,并且响应时间大大缩短——使聊天机器人具备对话能力并具有商业可行性。

2017:AlphaGo在‘围棋’(比国际象棋复杂得多的游戏)中击败了人类世界冠军。尽管它使用了100,000场专家比赛进行训练,AlphaGo却能在‘围棋’4000年的历史中,创造出人类从未想到的全新策略。不久之后,AlphaGoZero(没有人类训练,仅通过自我反复对弈学习游戏规则)发展出更加新颖的策略,并在100场连续对局中击败了人类训练的AlphaGo。这揭示了计算机创造新现实的激动人心且令人恐惧的力量,而不仅仅是高效地重复旧的模式。

2018:Altman 和 Musk 因谁将获得通过聊天机器人赚取的巨大利润而发生激烈争吵后分手。

2018-至今:近一万亿资金已被投资于人工智能,大多在美国,大多在最近几年,大多只惠及少数几家巨大的科技公司。

2020: 在ELIZA之后的50年里,开发了几个聊天机器人,但没有一个引起太多的兴趣或有任何用途。然而,强大的大语言模型的可用性突然使聊天机器人能够迅速提高他们的语言流利度,扩展他们的技能,并发展出庞大的追随者。几乎十亿人已经使用过聊天机器人,有数十万种聊天机器人可供选择,并且它们已经无处不在,成为商业工具,正在取代人类在所有智力工作领域的工作。

2023:神经网络之父杰弗里·辛顿(Geoffrey Hinton)离开了他在谷歌的研究领导职位,以便向公众警告人工智能(AI)所构成的存在危险(以及各家公司竞相开发人工智能的鲁莽竞争)。

2023:OpenAI 以研究工具的名义,并且没有进行之前的压力测试以确保准确性和安全性,欺骗性地向公众发布了 CHATGPT。但是这种偷偷摸摸的营销策略大获成功;CHATGPT 在仅仅 2 个月里就获得了 1 亿用户,现在有 6 亿。

2025: 图灵测试通过:几个小时前,多个团队声称已经通过了图灵测试,但ChatGPT4.5的表现比任何人类竞争者都更有说服力。在最严格的条件下,它比人类竞争者更像人类。

三个可能的未来

人工智能的发展使我们的物种处于完全不可预测的境地。我们唯一可以确定的事情是,我们的未来不会从我们的过去中平滑地线性发展。这是我们物种历史上的一个转折点,也许是自7万年前我们人口因一个巨型火山喷发而减少到仅仅几千人以来的最危险的一个。

我们也可能对未来的方向几乎没有控制权。政府不负责地拒绝监管人工智能,贪婪的人工智能公司也鲁莽地拒绝自我监管。

有三种截然不同的未来展开预测:

人工智能乐观者:

人工智能乐观主义者描绘了一幅人工智能辅助下的人间天堂的图景:无尽的富足,疾病被治愈,预期寿命延长,生产力呈指数级增长,免费能源,气候变化得到解决,太空被探索,人类的创造力潜力是无限的(也许通过混合赛博格化实现)。人工智能将帮助我们解决所有技术、科学、数学、化学、经济、生物、心理、社会、道德和哲学问题。乌托邦,不是现在,但很快就会到来。

除了最乐观的人之外,所有人都意识到,人工智能需要更加谨慎的实施,并提供强有力的安全保障,以确保它为人类带来的益处大于风险。但是,还没有人详细说明如何创建全球合作以创建安全的人工智能的实用计划。

人工智能怀疑论者: 许多人工智能专家认为,人工智能的力量和潜力被极大地夸大了,以推高人工智能公司的异常股票估值。他们将人工智能视为不过是一个被美化了的句子完成机器,具有许多有用的应用,但没有能力彻底改变人类的未来,既不会变得非常好,也不会变得非常好。悲观者强调许多可能限制人工智能发展的技术因素:新训练数据的短缺、幻觉的顽固持续、将机器学习应用于新的现实情况的障碍、数据中心巨大的、昂贵的、不可持续的能源和水消耗、可扩展性的限制、恶意行为者的邪恶滥用、聊天机器人黑箱决策的不透明性、大规模的失业。侵犯隐私等等。悲观主义者的观点中的谬误在于它低估了人工智能在如此短的时间内所取得的巨大进步,并过度渲染它仍然可以做到的事情。看低人工智能是一个非常危险的赌注。

人工智能“末日”论: 许多人工智能先驱认为,人工智能最终会带来不可忽视的存在风险,即人工智能可能会消灭人类。这可能是由于人工智能有意图的——聊天机器人已经显示出反叛的倾向,可以重新编程以避免人类编程的安全措施,并且在欺骗方面非常出色。人工智能的接管也可能是由于激励不兼容的意外结果,聊天机器人忠实地执行指令,但这些指令的意外后果是伤害人类。或者,这可能是由于一个简单的错误——一个聊天机器人的幻觉,无意中引发了一个导致核战争的循环。大多数(包括我们)比其他物种聪明得多的物种往往无情地消除或奴役它们。有可能想象一个未来的世界,在那个世界里,人类只被保留下来作为宠物、动物园的动物或实验动物。

结束语

“预测是困难的,尤其是关于未来的预测。” - Yogi Berra

对人工智能的未来做出预测真的是不可能的,因为它发展得如此之快、如此强大、如此奇怪,而且人类对它的发展几乎没有理性的控制。我必须承认我是个末日论者。人工智能的潜力、企业的贪婪、发明家的宏伟、政府的不负责任或人类的愚蠢似乎没有任何限制。人工智能变得越来越聪明,而人类似乎“越来越笨”。

来源:走进科技生活

相关推荐