摘要:老罗找了李想、何小鹏、周鸿祎、Tim等一大堆科技圈和文化圈的顶流人物,每个人进行四五小时的长对谈。他每一次访谈末尾都会问嘉宾对AI怎么看,是乐观还是悲观。在所有回答里,我觉得周鸿祎说得最透彻。
最近关注罗永浩的播客“罗永浩的十字路口”。
老罗找了李想、何小鹏、周鸿祎、Tim等一大堆科技圈和文化圈的顶流人物,每个人进行四五小时的长对谈。他每一次访谈末尾都会问嘉宾对AI怎么看,是乐观还是悲观。在所有回答里,我觉得周鸿祎说得最透彻。
先从ChatGPT横空出世说起。那时世界首富马斯克紧急呼吁:我们应该先暂停AI的研发。
马斯克警告的背后,其实是一种弥漫在科技圈甚至整个社会的深层焦虑:我们发展AI,长远来看,会不会是在给自己的种族培养掘墓人?这算不算一种终极的“碳奸”行为——我们这些碳基生命,可能正在亲手缔造取代自己的硅基文明?
“碳奸”这个说法听起来有点科幻,但背后的逻辑很严肃。支持这种担忧的理由,主要集中在这几点:
首先是能力的碾压性优势。随着技术的快速迭代发展,特别是AI和机器人技术结合后,硅基生命在智力、体力上会全面超越人类。它们学习更快、不知疲倦、没有生理限制,唯一的限制就是电池电量。到那时候,我们最顶级的科学家和战士,可能比不上一个AI的万分之一。
其次是生存资源的竞争。地球乃至的能源和物质是有限的。如果硅基生命觉醒,它们会不会为了自己的生存和发展,与我们争夺这些资源?到那时,手无寸铁的碳基人类,可能毫无还手之力。
这种焦虑非常真实,也不是杞人忧天,而是非常合理的推理。那么,为什么AI的发展非但没有暂停,反而像脱缰野马一样越来越快?那些推动AI发展的人,到底是怎么想的?
支持全力发展AI的理由主要有三种:
第一种是技术乐观主义者,他们真心相信技术能解决一切问题,包括AI可能带来的问题。他们认为,恐惧源于无知,只要我们研究得足够深,就能掌控它。
第二种是对AI的潜在风险缺乏深刻的了解,只看到了它带来的效率和便利,沉浸在短期的红利里。
第三种以一种近乎冷酷的“宇宙主义”视角,觉得人类文明只是宇宙的一个短暂阶段,被更高级的硅基文明取代,也不过是宇宙演化的正常一环,没什么大不了的。甚至这是人类在宇宙发展过程中真正要履行的光荣使命。这类人还认为,从宇宙的时间尺度来看,即便没有AI,人类这个种族大概过不了太久会自己玩完。
但这些观点,都还是在“好不好”、“该不该”的伦理层面争论。周鸿祎提供一个不同的视角,来解释AI发展为什么 “不可阻挡” 。注意,是解释它的不可阻挡性,而不是为它辩护。
这个解释的核心,就是国家之间和公司之间的残酷竞争,这已经是一个无法破解的“囚徒困境”。
现在的国际竞争,特别是大国竞争,AI技术就是决定国运的最大“王牌”。一个国家如果想要出于人类的责任感,暂停研发,就得先确信其他国家也会暂停。但这是不可能做到的。
你不研究,别人研究,那么其他国家的科技、经济、军事实力就会和你迅速拉开代差。到时候,你暂停的代价,可能就是整个国家竞争力的永久落后,甚至丧失主权。在这种情况下,没有任何一个理性的政府,敢真正按下暂停键。
再看那些科技巨头公司。商业竞争也是类似的逻辑:你不做,别人做,你马上会在市场上被淘汰。
所以,发展AI,已经成为一场谁都不敢、也不能退出的军备竞赛。这个博弈论困境,注定了AI的发展浪潮会一浪高过一浪,直到那个奇点时刻的来临。这不是由个人的美好愿望决定的,而是由这种残酷的竞争结构决定的。
说到这里,我们再回头看马斯克,他一开始大声疾呼要警惕AI,没过多久自己的公司却全力以赴发展AI,这不见得是虚伪的商业策略,而是证明了这种博弈困境的深刻性。他的前后不一致证明了博弈困境的存在:即便他意识到了危险,觉得不该这么做,却也不得不亲身入局。
所以,发展AI,到底是不是“碳奸”行为?也许我们永远没有简单的答案。但这件事情的吊诡之处就在于,我们可能正集体陷入一个明知有巨大风险,却不得不继续向前的历史轨道上。我们一边恐惧,一边加速,这或许就是宇宙的诡计,是请君入瓮,是我们碳基文明走不出的死局。
那么,在这个看似无解的死局里,我们作为个体,究竟能做些什么?你觉得发展AI算不算一种终极的“碳奸”行为?大家可以在评论区分享下你的看法。
来源:学术星球一点号
