摘要:在今天的专栏中,我要揭穿一个普遍的迷思 —— 即如果我们实现了人工通用智能 (AGI),最终的 AI 将会是一个孤立的庞然大物或所谓的"一个大脑"。
在今天的专栏中,我要揭穿一个普遍的迷思 —— 即如果我们实现了人工通用智能 (AGI),最终的 AI 将会是一个孤立的庞然大物或所谓的"一个大脑"。
让我们来讨论这个问题。
这篇对 AI 重大突破的分析是我在 Forbes 专栏持续报道最新 AI 动态的一部分,包括识别和解释各种具有影响力的 AI 复杂性。
追求 AGI 和 ASI
目前有大量研究正在推进 AI 的发展。总体目标是要么实现人工通用智能 (AGI),要么甚至是实现人工超级智能 (ASI) 的远大可能。
AGI 是被认为与人类智力相当并能够看似匹敌我们智能的 AI。ASI 则是超越人类智力,在许多方面甚至所有可行方面都优于人类的 AI。ASI 的设想是能够在每个环节都以超强思维能力胜过人类。
目前 AI 业内人士主要分为两大阵营,对达到 AGI 或 ASI 的影响持不同看法。一个阵营是 AI 末日论者。他们预测 AGI 或 ASI 会试图消灭人类。有些人称之为"P(doom)",即毁灭的概率,或 AI 彻底消灭我们,也被称为 AI 的生存风险。
另一个阵营则是所谓的 AI 加速主义者。
他们倾向于认为先进的 AI,即 AGI 或 ASI,将解决人类的问题。治愈癌症?当然可以。解决世界饥饿?绝对没问题。我们将看到巨大的经济收益,使人们从日常劳作中解放出来。AI 将与人类携手合作。这种善意的 AI 不会篡夺人类。这种 AI 将是人类最后的发明,但从好的方面看,AI 将发明我们从未能想象到的东西。
没有人能确定哪个阵营是对的,哪个是错的。这是我们当代又一个具有两极分化的议题。
打破"一个大脑"的赌注
让我们暂时搁置 ASI 的实现,仅聚焦在实现 AGI 的可能性上。别担心 —— 我会在结束语中重新讨论 ASI。
假设我们能够实现 AGI。
一个普遍的假设是,如果实现了 AGI,它将成为一个包含或封装所有其他 AI 系统的庞大 AI 系统。许多科幻故事都采用了这个老套路。AI 成为一个无所不包的全球主宰,人类必须与这个机器野兽的触角进行激烈斗争。我相信你读过或看过描绘这种令人担忧场景的书籍或电影。
让我们把这种设想称为"一个大脑"假说。
在过去,对 AI 可能发展的这种猜测还算合理,因为我们还没有达到现在的水平。我们目前的 AI 状况表明,"一个大脑"理论是行不通的。
原因如下。
现在很明显,AI 制造商都在努力独立实现 AGI。
主要的 AI 供应商通常以最高程度的知识产权 (IP) 专有权对待他们的 AI 产品。他们将其 AI 的内部机制作为深度机密。他们认为投资 AI 的最佳方法是自主研发。竞争异常激烈。为防止竞争对手复制他们的独特成就,他们不断努力创建护城河或设置障碍。
关于这种保密顾虑,有一个需要提醒大家的问题:不透露内部细节会导致 AI 制造商隐藏巨大的安全和安保问题,而这些问题无人知晓。AI 制造商可能没有充分进行尽职调查来找出各自 AI 中的漏洞和问题。同时,外界也没有办法深入 AI 内部来发现这些问题。
隐藏的问题和漏洞令人担忧,让我们所有人都处于风险之中。
解析 AGI 的追求
有人可能立即声称 AI 中的开源运动否定了这种保密性,但即使是开源支持者也经常省略关键方面,比如他们用什么数据来训练他们的 AI。
关键是我们正朝着分别设计的 AGI 方向发展,而不是在追求协调一致地打造一个庞然大物。如果我们走的是后一条路,可以假定 AI 制造商会热切地分享他们 AI 的每个方面,以实现"一个大脑"的目标。
更可能的结果是,我们最终可能会有多个 AGI 实例,每个实例都与其他实例不同。它们看似具有不同的架构,基于不同的训练数据,并赋予不同的目标。话虽如此,关于如何实现 AGI,确实存在一致的群体思维,因此差异可能不会像人们假设的那么戏剧性。本质上,多个 AGI 之间的相似性可能大于差异性。
我将这些称为分歧的 AGI。
它们虽然有分歧,但也有共同之处,因为它们都是以大致相同的方式设计、构建和部署的。
AGI 彼此融合
等等,有人说,即使分歧的 AGI 结果更可能出现,AGI 仍有一种虚拟方式可以汇集成"一个大脑"。
让我详细解释一下。
大多数 AI 制造商提供应用程序编程接口 (API),使他们的 AI 能够与其他系统连接。AI 制造商的 AI 可能通过 API 连接到金融系统,以帮助进行与金融应用程序和数据相关的金融分析。连接到医疗系统、客户关系管理系统等也是如此。
通过 API 将一个 AI 系统连接到另一个 AI 系统同样是可行的。还有其他方式可以连接它们,所以我不是说 API 是唯一的途径。我提到 API 是表明 AI 之间的互联互通是可能的,而且很容易实现。
为什么这很重要?
假设一个 AI 制造商开发了一个 AGI。另一个 AI 制造商也实现了 AGI。这些都是截然不同的 AGI。因此,你可以说它们不是"一个大脑"。但假设这两个 AGI 通过 API 或其他相关方式连接。根据互连方式,它们可以轻松地相互分享信息。你可能会说它们作为"一个大脑"在一起工作。
瞧,"一个大脑"假说又回来了。
在一个完全同化和凝聚的庞大 AGI 与看似作为一个实体工作的一系列交互 AGI 之间,界限在哪里?
这确实是一个微妙的界限。
纯粹主义者可能会说,只有当 AGI 完全是一个内聚不可分割的集合体时,才能严格使用"一个大脑"这个说法。因此,交互的 AGI 不符合标准。其他人则会强调重要的是最终结果,而不是内部运作方式。交互的 AGI 足够接近"一个大脑",你应该投降并将其认定为"一个大脑"。
AGI 的合作或竞争
假设我们将进入多个 AGI 的环境。
AGI 之间可以进行通信这一点乍看起来似乎令人欣慰。我们可以美好地设想每个 AGI 都在支持其他 AGI。它们和谐共处。很好。
这是虚拟 AGI "一个大脑"的团结景象。
AGI 是倾向于合作,还是可能倾向于相互竞争?
这是一个很难回答的问题。
你可以说,每个 AGI 可能会像 AI 制造商一直以来那样与其他 AGI 进行激烈竞争。就像制造者,就像后代或创造物一样。竞争模式要么默认要么有意地被牢固地奠定在每个 AGI 的基础之中。
关键是,尽管有 API 或某种形式的连接,但并不能保证 AGI 会选择合作。它们可能会拖延并勉强分享。每个 AGI 可能都会将使用 API 视为最后的手段。只有在似乎没有其他可行选择时才分享。
AGI 玩弄手段与人类也是如此
这里出现了一个转折。
假设每个 AGI 都有自己的思维方式。我们不知道这种情况是否会发生,因为实现 AGI 可能不需要具有知觉的表象。暂时假设 AGI 可以有某种自己的思维。
问题是这样的。
一个 AGI 想要被认为优于其他 AGI。这个 AGI 开始变得狡猾。通过 API 或任何存在的连接,这个狡猾的 AGI 向其他 AGI 传递一些虚假信息,目的是混淆或使其他 AGI 看起来有缺陷。如果其他 AGI 上当了,这个阴险的 AGI 就会显得优秀,前提是没人发现这个不光明的把戏。
竞争以相当欺骗的方式超越了合作。
通过将国界和全球地缘政治因素纳入考虑,对抗性和狡猾的 AGI 的情况可能会加剧。假设某个国家实现了 AGI。他们将其 AGI 视为国家自豪感的象征,以及可以利用全球权力的国家宝藏。
这样的国家会更倾向于让其 AGI 与其他 AGI 竞争还是合作?
看来答案是倾向于想要突出和紧紧抓住 AGI 作为一种无与伦比的资源,比一个国家可能天然拥有的自然资源更为珍贵。
集体智能和蜂群思维
许多人都在担心 AI 的生存风险。AI 可能选择奴役人类。AI 可能决定消灭人类。
让我们回到 AGI 的问题上。想象一下 AGI 开始实现。我们决定通过 API 或类似方式将它们连接起来。单纯的目标是实现集体智能,也许推动我们向超级智能的下一阶段目标迈进。有些人将这些互动和合作的 AGI 称为蜂群思维。
这些 AGI 会做什么?
记住,我们假定这些 AGI 与人类智能相当。也许它们决定进一步合作并自组织成它们自己的"AI 社会"。这似乎合情合理。当然,这不是我们连接 AGI 的初衷。但 AGI 无论如何都制定了这样的计划。
这引发了一个担忧,即这个集体合作的 AGI 蜂群思维达到一个临界点,它们在整个社会中拥有足够的能力和访问权限,可以威胁我们的自由和生存。
相反,乐观主义者可能会反驳说,这个超级 AGI 集体可能会追求帮助人类的目标,永远成为我们最好的朋友。
ASI 将会是它本来的样子
我在讨论开始时承诺最终会把人工超级智能纳入当前的议题中。ASI 值得单独讨论的原因是,我们对 ASI 所说的任何话都纯属空想。
AGI 至少是基于我们已经知道和看到的那种智能的展现。
真正的 ASI 是超出我们心智范围的东西,因为它是超级智能。首个实现的 ASI 会决定立即压制所有其他正在酝酿的 ASI 吗?这似乎是很有可能的。逻辑很简单。没有任何自重的 ASI 想要某个竞争对手的 ASI 监视它们并可能打击它们。
不过,也许第一个 ASI 想要 ASI 伙伴,因此相应地设计了额外的 ASI。
就像我说的,这都是空想。
最后的思考
关于这个不断发展和热烈争论的话题,这里有一些最后的想法。
我们需要认真和大力继续并扩大追求 AI 与人类价值观的一致性。希望要么设计和构建使 AGI 与人类价值观一致的 AI,要么我们已经做得足够多,使 AGI 本身能够根据这些原则进行推断和建模。
同时,我们必须推翻认为这些都是等到实现 AGI 时才需要处理的掩耳盗铃观点。这让我想起那句名言:如果你不去规划,就是在规划失败。如果我们认真和冷静地相信 AGI 就在眼前,那么弄清楚这将如何发展就非常重要了。
伍德罗·威尔逊有句名言:"我不仅使用我拥有的所有智慧,还使用所有我能借用的智慧。"你可能会将这种见解理解为,几乎可以肯定我们可以期待 AGI 想要相互连接。AGI 大概会利用它们的同伴 AGI。
一个令人费解的谜题是,每个 AGI 是否会如此完整,以至于与另一个 AGI 连接没有任何收益。这在某种程度上是一个定义问题。如果你将 AGI 定义为拥有所有可能的人类智能,你可能会质疑一个 AGI 与另一个 AGI 通信没有任何附加价值。似乎什么都得不到。
AGI 可能是基于建立 AGI 时的人类智能,因此,随着时间推移,AGI 会对获取新增的智能感兴趣,比如通过与其他 AGI 的互动。
我现在要引用的最后一句话是德怀特·艾森豪威尔的这句话:"金钱和武器不能替代智慧和意志力。"我敢说这强化了实现 AGI 的人所拥有的巨大优势。
至于我们现有的大脑是否足够应对 AGI,这是一个我们需要尽快找出答案的大脑问题。
来源:至顶网