前主编Global丨外媒:科技巨头秘密建造末日地堡,我们该担心吗?

B站影视 港台电影 2025-10-10 18:22 1

摘要:该庄园计划包含一个避难所,配备独立的能源和食物供应。不过,在现场工作的木匠和电工被保密协议禁止谈论此事。

据说,马克·扎克伯格早在2014年就启动了他在夏威夷考艾岛上的庞大庄园——库劳牧场的建设工作。

据《连线》杂志报道,该庄园计划包含一个避难所,配备独立的能源和食物供应。不过,在现场工作的木匠和电工被保密协议禁止谈论此事。

一道六英尺高的墙阻挡了从附近道路窥视该项目的视线。

去年,当被问及是否在建造末日地堡时,这位Facebook创始人直接否认了。他解释说,那个占地约5000平方英尺的地下空间“就像一个小避难所,就像一个地下室”。

但这并未能阻止人们的猜测——同样引发猜测的还有他在加州帕洛阿尔托新月公园社区购买11处房产的决定,据称还在其中一处房产下方增加了一个7000平方英尺的地下空间。

尽管根据《纽约时报》的报道,他的建筑许可证上提及的是“地下室”,但他的一些邻居称其为“地堡”,或者说是“亿万富翁的蝙蝠洞”。

此外,还有围绕其他科技领袖的猜测,其中一些人似乎一直在忙于购买大块拥有地下空间的土地,这些土地非常适合改造成价值数百万英镑的豪华地堡。

领英的联合创始人里德·霍夫曼曾谈论过“末日保险”。他此前曾声称,大约一半的超富人群拥有这种东西,而新西兰是一个受欢迎的置业目的地。

那么,他们真的可能是在为战争、气候变化的影响,或是我们其他人尚未知晓的某种灾难性事件做准备吗?

在过去几年里,人工智能的发展更是为这份潜在的存在性忧虑清单增添了新内容。许多人对AI发展的惊人速度深感担忧。

据报道,OpenAI的首席科学家兼联合创始人伊利亚·苏茨克韦尔就是其中之一。

到2023年中期,这家总部位于旧金山的公司已经发布了ChatGPT——这个聊天机器人如今被全球数亿人使用——并且他们正在快速进行更新。

但据记者凯伦·郝的书中所写,到那年夏天,苏茨克韦尔越来越确信计算机科学家们即将开发出人工通用智能——即机器达到人类智能水平的时刻。

郝女士报道称,在一次会议中,苏茨克韦尔向同事们建议,在如此强大的技术向世界发布之前,他们应该为公司顶尖科学家们挖一个地下避难所。

据广泛报道,他曾说过:“在发布AGI之前,我们肯定会先建一个地堡。”不过,尚不清楚他所说的“我们”指的是谁。

这揭示了一个奇怪的事实:许多顶尖的计算机科学家和科技领袖,其中一些人正致力于开发极其智能的AI形态,同时也似乎深深恐惧它有一天可能带来的后果。

那么,AGI究竟何时——如果真有那么一天——会到来?它是否真的能带来足以让普通人感到恐惧的变革性影响?

一个“比我们想象中更早”的到来

科技领袖们声称AGI即将来临。OpenAI老板萨姆·奥特曼在2024年12月表示,它将“比世界上大多数人想象的更早”到来。

DeepMind的联合创始人德米斯·哈萨比斯爵士预测将在未来五到十年内实现,而Anthropic的创始人达里奥·阿莫代伊去年写道,他更倾向于使用的术语——“强大AI”——最早可能在2026年出现。

其他人则持怀疑态度。“他们总是在移动球门柱,”南安普顿大学计算机科学教授温迪·霍尔教授说。“这取决于你跟谁谈。”我们正在通电话,但我几乎能听到她翻白眼的声音。

她补充道:“科学界说AI技术是惊人的,但它还远未达到人类智能的水平。”

科技公司Cognizant的首席技术官巴巴克·霍贾特也同意,首先需要有一系列“根本性的突破”。

更重要的是,它不太可能在某一个瞬间突然到来。相反,AI是一项快速发展的技术,它正处于一段旅程中,全球有许多公司正在竞相开发自己的版本。

但这个想法让硅谷的一些人感到兴奋的一个原因是,它被认为是通向更先进事物的前兆:ASI,即人工超级智能——超越人类智能的技术。

早在1958年,“奇点”的概念就被追认为由匈牙利出生的数学家约翰·冯·诺依曼提出。它指的是计算机智能进步到超越人类理解能力的时刻。

最近,由埃里克·施密特、克雷格·芒迪和已故的亨利·基辛格合著的2024年书籍《起源》,探讨了一种超级强大的技术变得如此高效于决策和领导,以至于我们最终将控制权完全交给它的想法。

他们认为,这只是时间问题,而非是否会发生的问题。

人人有钱,无需工作?

支持AGI和ASI的人几乎像传播福音一样宣扬其好处。他们认为,它将找到致命疾病的新疗法,解决气候变化问题,并发明取之不尽的清洁能源。

埃隆·马斯克甚至声称,超级智能AI可能迎来一个“普遍高收入”的时代。

他最近赞同这样一种观点,即AI将变得如此廉价和普及,以至于几乎任何人都想要他们“自己的个人R2-D2和C-3PO”(引用了《星球大战》中的机器人)。

他热情地表示:“每个人都将有最好的医疗保健、食物、住房、交通以及其他一切。可持续的富足。”

当然,也有可怕的一面。这项技术会不会被恐怖分子劫持并用作巨大的武器?或者,万一它自行判定人类是世界问题的根源并摧毁我们,那会怎样?

“如果它比你聪明,那么我们必须控制住它,”万维网的发明者蒂姆·伯纳斯-李本月早些时候在接受BBC采访时警告说。“我们必须能够关闭它。”

各国政府正在采取一些保护措施。在许多领先AI公司所在的美国,拜登总统于2023年签署了一项行政命令,要求一些公司向联邦政府分享安全测试结果——尽管特朗普总统此后撤销了该命令的部分内容,称其为创新的“障碍”。

与此同时,在英国,由政府资助的研究机构——人工智能安全研究所于两年前成立,旨在更好地理解先进AI带来的风险。

然后就是那些拥有自己“末日保险”计划的超级富豪们。

“说你在‘新西兰买房’有点像是一种心照不宣的暗示,”里德·霍夫曼此前说过。对于地堡,想必也是如此。

但这其中存在一个明显的人性缺陷。

我曾遇到过一位拥有自己“地堡”的亿万富翁的前保镖,他告诉我,如果末日真的发生,他的安保团队的首要任务将是“解决”掉那位老板,然后自己进入地堡。而且他似乎不是在开玩笑。

这一切都是危言耸听的胡说八道吗?

尼尔·劳伦斯是剑桥大学机器学习教授。对他而言,这场辩论本身就是无稽之谈。

他认为,“人工通用智能的概念就像‘人工通用载具’的概念一样荒谬。”

“合适的载具取决于具体情况。我乘坐空客A350飞往肯尼亚,我每天开车去大学,我步行去自助餐厅……永远不会有任何一种载具能够完成所有这些事情。”

对他而言,关于AGI的讨论是一种干扰。

“我们已经构建的技术,首次使得普通人能够直接与机器对话,并有可能让它按照他们的意图行事。这绝对是非凡的……并且具有彻底的变革性。”

“最大的担忧是,我们过于被大型科技公司关于AGI的叙事所吸引,以至于我们错过了我们需要为人们改善现状的种种方式。”

当前的AI工具是在海量数据上训练出来的,擅长识别模式:无论是扫描图像中的肿瘤迹象,还是在特定序列中最有可能出现在另一个词之后的词。但是它们没有“感觉”,无论它们的回答看起来多么令人信服。

“有一些‘取巧’的方法可以让大型语言模型表现得好像它有记忆并且在学习,但这些方法并不令人满意,而且远逊于人类,”霍贾特先生说。

总部位于加州的IV.AI公司的首席执行官文斯·林奇也对关于AGI的夸大声明持谨慎态度。

“这是很棒的营销,”他说,“如果你是那个正在建造有史以来最聪明的东西的公司,人们会想给你钱。”

他补充道:“这不是一个两年内就能实现的事情。它需要大量的计算能力、大量的人类创造力、大量的试错。”

当被问及是否相信AGI终将实现时,他停顿了很长时间。

“我真的不知道。”

没有意识的智能

在某些方面,AI已经超越了人脑。一个生成式AI工具可以在一分钟前是中世纪历史专家,下一分钟就能解决复杂的数学方程。

一些科技公司表示,他们并不总是知道他们的产品为什么会以某种方式回应。Meta表示,有迹象表明其AI系统正在自我改进。

然而,最终,无论机器变得多么智能,从生物学上讲,人脑仍然胜出。

它拥有约860亿个神经元和600万亿个突触,远远多于人工等效物。大脑不需要在交互之间暂停,并且它在不断适应新信息。

“如果你告诉一个人在外星球上发现了生命,他们会立即学到这一点,并且这将影响他们未来的世界观。对于一个大型语言模型来说,只有在你不断向它重复这个事实的情况下,它才会知道,”霍贾特先生说。

“大型语言模型也没有元认知,这意味着它们并不完全知道自己知道什么。人类似乎有一种内省能力,有时被称为意识,这让他们能够知道自己知道什么。”

这是人类智能的一个基本组成部分——一个尚未在实验室中被复制的部分。

文章来源:

来源:新浪财经

相关推荐