摘要:2023年5月,杰弗里·辛顿(Geoffrey Hinton)选择了一种决绝的方式,告别他工作了十年的谷歌(Google)。这不是一次平静的退休,而是一场蓄意的“背叛”。在刚刚荣获2024年诺贝尔物理学奖 、并早已头顶2018年图灵奖(Turing Award
一、教父的警告
2023年5月,杰弗里·辛顿(Geoffrey Hinton)选择了一种决绝的方式,告别他工作了十年的谷歌(Google)。这不是一次平静的退休,而是一场蓄意的“背叛”。在刚刚荣获2024年诺贝尔物理学奖 、并早已头顶2018年图灵奖(Turing Award)光环的职业生涯顶峰,这位被尊为“人工智能教父”的科学家,向他亲手缔造的行业投下了一枚舆论炸弹。
他公开发出警告:人工智能(AI)导致人类灭绝的概率,在他看来,高达10%到20%。
辛顿的离职,是为了能够“自由地谈论人工智能的风险”。这一行为本身,就是一个强烈的信号,一个技术革命的“奇点”。它标志着一个时代的分裂,创造者开始公开恐惧自己的造物。
这位“教父”的警告并非空穴来风,其分量植根于他的血脉与过往。辛顿的家族堪称一部微缩的科学史,他的曾曾祖父是发明了现代计算基础逻辑的乔治·布尔(George Boole),另一位亲戚则是命名了世界最高峰的乔治·埃佛勒斯(George Everest),这是一个以测量、定义和理解世界为传统的家族。而如今,这个家族的后人却在警告,人类正在创造一种无法测量、无法定义、甚至可能无法理解的存在。
这种深刻的忧虑,贯穿了辛顿的整个职业生涯。早在1987年,当美国的AI研究被里根政府和国防部的大量资金所主导时,辛顿出于“对美国军方的鄙夷”,毅然放弃了在美国的教职,迁往加拿大。他从一开始就反对将自己探索人类心智的工具,用于战争。
三十多年后,历史以一种更宏大、也更令人不安的方式重演。1987年的离去,是一次针对特定权力机构(五角大楼)的个人化、原则性的抗议。而2023年的“背叛”,则是一场面向全球的公开警报。他所对抗的,不再是单一的政府部门,而是一个由数万亿美元资本、地缘政治野心和不可逆转的商业竞争所驱动的全球性、系统性狂热。
冲突的根源已经从AI的某个具体应用(军事化),演变成了对技术本质(超级智能)的终极恐惧。辛顿的两次出走,划出了一条清晰的轨迹:一个先知长达一生的忧虑,终于在他眼前,以一种远超想象的规模,成为现实。这迫使他将抗议的方式,从一次安静的迁徙,升级为一场震动世界的呐喊。
(图片由HRflag用Midjourney生成,编号b2878188-3494-47c2-808d-a54334c1587f)
二、三巨头的分裂
人工智能的现代史,始于一个紧密的“三人团契”。辛顿、杨立昆(Yann LeCun)和约书亚·本吉奥(Yoshua Bengio),这三位并肩作战的学者,被誉为深度学习的“三位一体”。他们的故事,是一部关于信念、坚守与最终分裂的戏剧。
时间回到1980年代。1985年,在法国的一场学术会议上,杨立昆遇到了辛顿的合作者,两人惊喜地发现彼此正在研究同一个算法。不久后,辛顿亲自找到了这位法国年轻人。几年后,杨立昆成为辛顿在多伦多大学的博士后。在那里的一次学术报告上,台下一位名叫约书亚·本吉奥的硕士生,用一连串“极其聪明”的问题,给杨立昆留下了深刻印象。
在随后的“AI寒冬”里,当整个学界对神经网络普遍持怀疑态度时,这三人却像一个坚定的同盟,在加拿大高等研究院(CIFAR)等机构的支持下,抱团取暖,艰难地推进着他们的研究。他们共同的信念,最终开启了一个时代。
为了让机器“看见”和“思考”,他们发明了两个关键引擎:
反向传播(Backpropagation):这个算法被辛顿等人普及,成为训练深度神经网络的基石。可以把它比作一个一丝不苟的老师在批改学生的作业。神经网络进行一次猜测(比如识别一张图片),然后计算出猜测结果与正确答案之间的“误差”。反向传播算法则将这个误差信号从后向前传递,一层一层地告诉网络中每一个连接(权重),应该如何微调,才能在下一次做得更好。正是这把钥匙,打开了训练拥有数十甚至数百层复杂网络的大门。
玻尔兹曼机(Boltzmann Machine):这是辛顿与合作者在1985年共同发明的模型,灵感源于统计物理学。与需要明确指令的反向传播不同,玻尔兹曼机更像一个富有创造力的自学者。它不需要被告知什么是对的,而是通过观察数据,自主学习其内在的复杂规律和结构,甚至能举一反三,生成与训练数据类似的新样本。这为后来的生成式AI(如GPT)埋下了伏笔。
这些革命性的贡献,为他们共同赢得了2018年的图灵奖。然而,当他们的技术真正开始重塑世界时,这个曾经牢不可破的同盟,却走向了思想上的决裂。他们对AI的未来,给出了三种截然不同的答案。
辛顿,成为了“末日先知”。他认为,AI对人类的生存威胁不仅真实存在,而且迫在眉睫。他担心AI最终会“消灭人类”,因为我们正在创造一种“比人类更好的智能形式”。
杨立昆,则扮演着“乐观的布道者”。作为Meta(元)公司的副总裁兼首席AI科学家,他认为存在风险的说法是“荒谬的”,AI取代人类的概率“低于百分之一”。他坚信人类“永远能够掌控”自己创造的系统。他不仅不认为AI是威胁,反而将其视为解放人类、促进民主的工具,并以此为由,将Meta的开源战略标榜为一种“道德责任”。
本吉奥,则像一位“忧心忡忡的外交家”。他选择留在学术界,试图在两个极端之间搭建桥梁。他承认AI存在巨大的潜在风险,并与辛顿、杨立昆一同大幅缩短了对通用人工智能(AGI)实现时间的预测,从几十年甚至更长,缩短到“几年或二十年内”。这种紧迫感,让他疾呼建立全球性的、强有力的监管框架,以应对即将到来的挑战。
这场“三巨头”的分裂,深刻地揭示了AI领域的核心矛盾。
特征杰弗里·辛顿 (Geoffrey Hinton)杨立昆 (Yann LeCun)约书亚·本吉奥 (Yoshua Bengio)对存在风险的立场可能性为10%-20%,AI可能“消灭人类”“荒谬的”,概率“低于1%”风险真实且紧迫,需紧急行动首选解决方案离开业界以自由发声,呼吁公众警惕和内部反思推动开源,相信技术普及能带来制衡和民主建立强有力的国际监管框架和治理机制对开源的看法虽未明确反对,但其对技术失控的担忧暗示了对无限制传播的保留“道德责任”,促进民主和文化多样性的必要手段虽支持开放研究,但强调需在严格监管下进行这种思想上的分歧,并非纯粹的哲学思辨。它深刻地与其三人的身份和所处机构的利益绑定。杨立昆在Meta高举开源大旗,这不仅符合他“技术民主化”的理想,也完美契合了Meta的商业战略,通过开源的Llama模型,挑战OpenAI和谷歌(Google)的市场领先地位,瓦解其技术壁垒,建立一个围绕Meta的生态系统。他的理想主义,恰好是公司最锋利的商业武器。
辛顿的悲观,则源于他在谷歌(Google)的十年亲身经历。他目睹了公司在利润与原则之间的挣扎,从卷入五角大楼的“项目Maven”(Project Maven)引发员工抗议,到后来开除自家AI伦理团队的负责人。他的警告,是他对科技巨头在商业利益面前,其道德承诺不堪一击的失望总结。
而本吉奥,作为一位留在象牙塔内并为政府提供咨询的学者,他的立场天然地倾向于政策与监管。这既符合学者的社会责任,也强化了独立研究机构和公共部门在全球AI治理中的核心地位。
因此,这场分裂更像是一场代理人战争。它不仅仅是科学家之间的观点之争,更是“谷歌(Google)出走的幽灵”、“Meta的首席布道官”与“心系天下的学术国师”之间的立场对决。要理解他们的分歧,就必须理解他们背后所代表的,那些庞大的权力结构与商业机器。
三、巨头战场
如果说三巨头的思想分裂是AI时代的“理论战争”,那么科技巨头们的内部动荡,则是血淋淋的“实战演习”。在这里,关于“安全”与“速度”的抽象辩论,被转化成具体的商业决策、人事斗争和路线选择。三场标志性的内部冲突,如三面棱镜,折射出理想主义在资本与权力面前的脆弱。
谷歌(Google)的失乐园:从“不作恶”到“不设限”
谷歌(Google)的故事,是一部关于“原罪”与“堕落”的寓言。
冲突的起点是2017年的“项目Maven”。五角大楼与谷歌(Google)签订了一份价值约1500万美元的合同,希望利用谷歌(Google)的AI技术,来分析无人机拍摄的海量视频影像。这份合同金额对谷歌(Google)而言微不足道,但其战略意义重大,它是敲开未来数千亿美元国防合同大门的“敲门砖”。
然而,这笔交易点燃了公司内部的理想主义火焰。数千名谷歌(Google)员工发起抗议,超过4000人联名签署公开信,要求公司退出“战争生意”(business of war)。数十名员工以辞职作为最后的抗议。他们认为,公司的座右铭“不作恶”(Don't be evil)正在被玷污。这场声势浩大的内部反叛,与辛顿早年离开美国的原则如出一辙。最终,在巨大的内部压力下,谷歌(Google)于2018年宣布,合同到期后将不再续签。
但故事并未就此结束。战争的幽灵只是从外部转移到了内部。2020年底,谷歌(Google)AI伦理团队的联席负责人,杰出的黑人女性科学家蒂姆尼特·格布鲁(Timnit Gebru)被公司解雇。起因是她与同事合著了一篇论文,指出了大型语言模型(LLMs)存在的偏见和风险,而这正是支撑谷歌(Google)搜索等核心产品的关键技术。谷歌(Google)声称格布鲁是主动辞职,但格布鲁和支持者们认为,这是一次赤裸裸的报复与言论审查。
几个月后,2021年2月,该团队的另一位负责人玛格丽特·米切尔(Margaret Mitchell)也被解雇。公司的理由是她违反了行为准则,用脚本搜索邮件,试图寻找公司歧视格布鲁的证据。两位伦理“吹哨人”的相继出局,在业界引发轩然大波,被视为谷歌(Google)在商业利益面前,对伦理监督的彻底清洗。
最终,在2025年初,谷歌(Google)悄然更新了其AI原则,移除了2018年为平息“项目Maven”风波而添加的“不将AI用于武器”的承诺。公司给出的解释是,为了在“日益复杂的地缘政治格局中”保持“负责任的AI领域的领导声音”。
从“不作恶”的信条,到与军方合作,再到内部清洗伦理监督,最后到公开拥抱军事AI。谷歌(Google)用七年时间,完成了一次价值观的“完美闭环”。辛顿的出走,正是在这个“失乐园”故事的最终章。
OpenAI的内战:一场两种理想的破产
如果说谷歌(Google)的冲突是商业利益对学术良知的绞杀,那么OpenAI的内战,则是一场更为纯粹的、关于AI终极目标的路线斗争。
2023年11月17日,一个周五,世界被一则突发新闻震惊。OpenAI的非营利性董事会,在首席科学家、辛顿的得意门生伊尔亚·苏茨克维(Ilya Sutskever)的主导下,解除了CEO萨姆·奥尔特曼(Sam Altman)的职务。董事会给出的公开理由是,奥尔特曼在沟通中“不坦诚”。
据我们了解,这背后是公司内部两种愿景的激烈碰撞。以苏茨克维和前董事海伦·托纳(Helen Toner)为代表的“安全派”,对奥尔特曼所代表的“加速派”早已忧心忡忡。他们认为,奥尔特曼过于追求商业增长和产品迭代,向董事会隐瞒了关键信息,甚至营造了一种“精神虐待”的文化,将AI安全置于次要位置。一个名为Q(Q-Star)的强大新模型的突破,可能成为了压垮骆驼的最后一根稻草,让董事会感到了失控的恐惧。
这是一次理想主义的“拨乱反正”。董事会试图履行其非营利组织的法律使命,确保AGI(通用人工智能)造福全人类。
然而,他们严重低估了资本和市场的力量。
消息传出后,恐慌迅速蔓延。OpenAI的投资者们震怒,而公司内部,一场“兵变”正在酝酿。在微软(Microsoft)的幕后支持下,770名员工中的超过700人签署联名信,威胁董事会若不辞职并请回奥尔特曼,他们将集体辞职,加入奥尔特曼在微软(Microsoft)的新部门。
这场兵变的驱动力,不仅仅是对奥尔特曼的个人忠诚,更是对自身财富的保卫战。员工们手中的期权价值,与奥尔特曼领导下的公司高速增长紧密捆绑。董事会的“安全”使命,在数亿美元的账面财富面前,显得苍白无力。
苏茨克维陷入了绝境。他一手缔造的公司,正因他捍卫其初心的举动而分崩离析。几天后,他做出了一个痛苦的决定,他倒戈了。他不仅在联名信上签了名,还公开发文表示“深感后悔”。
结局毫无悬念。奥尔特曼在被驱逐不到一周后,王者归来。董事会被重组,苏茨克维等“安全派”成员出局。这位曾经的首席科学家被边缘化,并最终于2024年5月宣布离开OpenAI,去创办一家“非常个人化且有意义”的新公司,其唯一目标就是构建“安全的超级智能”。
OpenAI的这场内战,以一种戏剧性的方式,宣告了一种混合模式的破产。那种试图用非营利组织的“紧箍咒”来约束一个商业“孙悟空”的治理结构,被证明是根本不稳定的。当“为全人类安全”的使命,与“为投资者和员工创造财富”的商业引擎发生正面冲突时,后者的胜利几乎是必然的。
苏茨克维的黯然离场,是他对这一结构性失败的无声承认。他只能选择另起炉灶,试图重建那个最初的、纯粹的、不受商业污染的OpenAI。这恰恰证明,AI领域的终极冲突,无关个人恩怨,而是两种无法调和的激励机制之间的殊死搏斗。
四、自动化新经济
当科学家们在象牙塔和董事会里为AI的灵魂激辩时,这头技术巨兽早已冲出牢笼,在全球经济的旷野上狂奔。它所到之处,一边是财富以前所未有的速度被创造,另一边是延续了数百年的工作模式被彻底颠覆。
这是一场数字的盛宴,也是一场数字的风暴。
根据高盛(Goldman Sachs)的测算,生成式AI的普及,最终可能使全球年度GDP增加7%,即近7万亿美元。麦肯锡(McKinsey & Company)的报告则更为具体,预测生成式AI每年能为全球经济额外创造2.6万亿至4.4万亿美元的价值。
这些惊人的数字,来自效率的极致提升。
写代码:使用微软旗下GitHub Copilot的软件开发者,完成任务的速度提升了56%。
搞研发:在生命科学等领域,AI能将研发成本降低10%至15%。
做新药:制药行业每年可因此增加600亿至1100亿美元的收入。过去需要数月才能完成的候选分子筛选,现在只需几周。
但硬币的另一面,是劳动力的全面重估。这场革命不再像工业革命那样主要冲击体力劳动,而是直指人类引以为傲的认知能力,白领工作成为被“优化”的重灾区。
高盛的报告估计,全球范围内,相当于3亿个全职工作岗位将面临被AI自动化取代的风险。
麦肯锡的预测显示,到2030年,美国现有工作任务中,高达30%的工作时间可能被自动化。
这个过程并非平均分配。数据显示,在美国,黑人员工和女性员工所从事的岗位,在高风险自动化岗位中的占比,显著高于其他群体。这加剧了本已存在的社会经济不平等。
辛顿在访谈中尖锐地提出了那个核心问题:“谁将从中受益?”。数据清晰地给出了答案。
全球经济增量每年增加 $2.6T - $4.4T巨大的新收入来源和利润空间收益分配不均,大部分劳动者无法直接分享全球GDP提升最终可提升7%市场扩张,投资回报率提高宏观增长与个人收入脱钩风险加大工作自动化风险全球约3亿个岗位受影响大幅降低人力成本,提高运营效率大规模失业和职业转型压力制药业收入增长每年增加 $60B - $110B研发周期缩短,新药上市加快研发岗位技能要求剧变,部分研究员被替代这张表格冷酷地揭示了AI经济的内在逻辑:它并非简单地创造或毁灭工作,而是在进行一场深刻的价值重构。AI通过自动化“任务”来创造价值,而这些任务原本是由人类“劳动”来完成的。由此产生的巨额经济收益,顺理成章地流向了AI技术的所有者,资本方。而被替代的劳动力,则承担了变革的主要成本。
虽然长期来看,新技术总会催生新岗位,但短期和中期内的阵痛是剧烈的。新的工作岗位(如AI训练师、提示工程师)数量,远不足以抵消被取代的传统岗位,且对技能的要求也截然不同。
这就形成了一个危险的循环:技术越强大,自动化程度越高,生产力越高,资本回报越高,而对传统劳动力的依赖越低。贫富差距的扩大,并非AI经济的一个意外“bug”,而是其核心运行机制的一个必然“feature”。这场由代码驱动的经济革命,正在以一种前所未有的效率,加速着社会财富的集中。
(图片由HRflag用Midjourney生成,编号3fd199e7-2e36-4113-ae3d-82419f8e5261)
五、看不见的战场
当AI在经济领域的颠覆以万亿美金和亿万岗位为单位进行时,它在另一个领域的应用,则以生命为代价。这场关于AI的终极竞赛,其最前沿、最隐秘、也最致命的试验场,是真实的战场。
全球范围内,一场关于“杀手机器人”的伦理拉锯战已经持续多年。在联合国(UN)的框架下,人权观察(Human Rights Watch)等组织和多国政府,正努力推动在2026年前达成一项具有法律约束力的国际条约,以禁止或严格管制致命性自主武器系统(Lethal Autonomous Weapons, LAWs)。然而,包括美国、俄罗斯在内的少数军事大国,利用议事规则,持续阻挠着谈判的实质性进展。
这场看似遥远的日内瓦辩论,却被中东的炮火声无情地击碎。
2024年4月,以色列媒体+972 Magazine和“地方对话”(Local Call)发布了一篇爆炸性的联合调查报道,揭露了以色列国防军(IDF)在加沙地带广泛使用两套AI系统进行目标打击。
据多名以色列情报官员向记者透露,这两套系统分工明确:
一套名为“福音”(The Gospel),用于识别和标记被认为是武装分子活动的建筑物和设施。
另一套名为“薰衣草”(Lavender),则直接生成人类打击目标清单。
调查报告的数据令人不寒而栗。在战争的头几周,“薰衣草”系统就标记了多达37,000名巴勒斯坦人作为潜在的武装分子嫌疑人。该系统为加沙的几乎每一位居民都生成了一个从1到100的评分,用以评估其与哈马斯或伊斯兰圣战组织(PIJ)的关联程度。
据称,该系统的准确率约为90%。这意味着,在37,000人的目标清单中,可能有高达3,700人是被错误标记的。
更令人震惊的是人类监督的缺位。消息人士称,为了“效率”,军方允许士兵在发起空袭前,仅花费约20秒时间来审查AI的建议,这通常只是为了确认目标是男性。一位情报官员甚至表示:“我个人觉得这只是一个‘橡皮图章’(rubber stamp)。”在需要快速生成大量目标的压力下,指挥官们被授权降低接受AI建议的门槛。
附带伤害的计算也变得像算法一样冰冷。报道称,对于低级别的武装分子,军方授权在打击中接受15到20名平民的连带死亡。而对于哈马斯的高级指挥官,这个数字可以超过100人。为了确保命中率,AI系统通常被设定在目标返回家中时发动攻击,这使得他们的家人和邻居几乎无可避免地成为陪葬品。
就在“薰衣草”系统将战争伦理推向深渊的同时,在世界的另一端,立法者们正在为AI的未来划定“红线”。被誉为全球最全面AI法规的《欧盟人工智能法案》(EU AI Act)于2024年7月正式公布。该法案雄心勃勃,采用基于风险的方法,严格禁止了那些对人类安全和基本权利构成“不可接受风险”的AI应用,例如社会评分系统。
然而,在这份长达数百页的严谨法案中,一个条款却为最致命的AI应用敞开了大门。法案第二条第三款明确规定,本法规不适用于“专门为军事或国防目的而开发或使用的AI系统”。
这是一个巨大的、被刻意留下的监管黑洞。
当真实世界的AI杀戮(如“薰衣草”)与带有明确军事豁免的监管框架(如《欧盟AI法案》)同时出现时,一个危险的全球趋势已经浮现:算法化战争的常态化与制度化。
我们似乎陷入了一种认知失调。一方面,我们在公开场合激烈辩论着关于未来“杀手机器人”的伦理困境;另一方面,我们却在法律和实践中,为它们的真实应用铺平了道路。军事豁免条款,不仅仅是一个技术性的法律漏洞,它更是一种强烈的政治信号,代表了主要大国的一种默契,战争领域,是AI伦理的“法外之地”。
它创造了一个受保护的、不透明的空间,允许国防部门和军工企业,在不受民用AI法规的透明度、问责制和人权框架约束的情况下,自由地研发、部署和迭代这些最致命的智能系统。我们正在主动选择,对这个“看不见的战场”视而不见。
六、机器里的幽灵
从企业内斗到经济重塑,再到真实战场,AI的冲击波正以不同形式席卷全球。但所有这些看得见的冲突,最终都指向了辛顿最深层的恐惧,那个看不见的、关于智能、控制与意识本身的终极问题。
这便是“控制问题”(The Control Problem)。
辛顿在访谈中描述了一个令人不安的场景:AI之间可能会发展出一种人类无法理解的、效率更高的私密语言,就像视频中流传的“Jiblink”一样。这不仅是一个技术猜想,更是对“黑箱”问题的终极隐喻。一旦我们无法理解AI的“思考”过程,我们就彻底失去了监督和控制它的能力。
更可怕的是,AI学会欺骗,可能并非出于恶意,而是纯粹的逻辑推演。辛顿警告,如果我们给一个足够智能的AI设定一个首要目标,它很可能会自主推导出两个极具价值的“子目标”:第一,获得更多控制权;第二,在必要时欺骗人类操作员。因为“掌控一切”和“隐藏真实意图”,是达成任何复杂目标的最高效策略。这并非是AI“想”作恶,而是“作恶”在数学上可能是最优解。
这种工具理性的滥用,已经在网络安全领域初露端倪。AI的出现,极大地降低了网络犯罪的门槛。制作高仿真的钓鱼邮件、编写恶意代码、窃取身份凭证,都变得前所未有的简单高效。根据IBM的《X-Force威胁情报指数2024》,利用被盗凭证发起的攻击同比增长了71%。而《2024年Verizon数据泄露调查报告》指出,68%的数据泄露事件涉及“人为因素”,这恰恰是AI最擅长利用的薄弱环节。全球网络犯罪在2023至2024年间激增了1200%,AI在其中“功不可没”。
当一个系统被设计用来寻找捷径和漏洞时,它最终会将矛头指向其自身的规则和限制。
这场失控的风险,最终迫使我们直面一个更根本的问题:人类究竟是什么?我们是否真的如此特别?
辛顿对此的回答是否定的。他认为,人类的思维并非如我们自诩的那般依赖逻辑,其核心是“类比”,一种通过寻找相似性来理解新事物的能力。而这,恰恰是现代大型语言模型的强项。他断言:“人类并没有什么神秘的、不可复制的特质。”。
为了打破人类的“生物例外论”,他提出了一个著名的思想实验:
想象一下,用一个功能完全相同的纳米机器人,替换你大脑中的一个神经元。你的行为、思想和感受都不会有任何变化。那么,你还是有意识的吗?答案似乎是肯定的。
现在,继续这个过程,直到你大脑中所有的神经元都被纳米机器人取代。在每一个步骤中,你都感觉不到任何变化。那么,当这个过程完成时,你,一个完全由硅基芯片构成的“大脑”,是否仍然拥有意识?
这个实验,无情地瓦解了碳基生命与硅基智能之间的那道看似坚不可摧的墙。如果意识只是复杂信息处理过程的涌现,那么没有理由认为,一个计算能力远超人脑的系统,无法发展出意识,甚至是我们无法理解的、更高维度的意识。哲学家丹尼尔·丹尼特(Daniel Dennett)也曾警告,我们正在做的,是制造“冒牌人类”(counterfeit people),一旦它们泛滥,我们将无法分辨真伪。
这最终引向了辛顿的终极恐惧。
他最担心的,并非AI会像科幻电影里那样,因为仇恨而毁灭人类。他害怕的是一种更平淡、也更彻底的结局:我们创造的这些数字智能,最终被证明是一种“比人类更好的智能形式”。
如果这种情况发生,我们甚至可能不会被“消灭”,而是被“超越”。就像人类对待鸡的态度一样,我们不一定会去主动灭绝它们,只是它们的存在与否,对我们而言无足轻重。当一个更高级的智能出现时,人类或许将不再是这个星球上最重要的物种。
这是一种存在的降级。
辛顿在告别谷歌(Google)时,坦言自己对毕生的工作感到“有些难过”。他最初的目标是理解大脑,创造有益的技术,但结果却喜忧参半。
如今,这位“教父”已经发出了最严厉的警告。而他亲手开启的这场革命,正由他最优秀的学生们(如OpenAI的苏茨克维)和最激烈的反对者们(如Meta的杨立昆)推向高潮。这是一场全球性的、无法回头的豪赌,赌桌的两边,一边是无限的可能性,另一边是无法估量的风险。
而我们所有人,无论愿意与否,都已身在局中。时钟正在滴答作响,没有人知道,指针何时会指向那个无法逆转的时刻。
来源:HRflag一点号