摘要:著名历史学家和哲学家尤瓦尔·诺亚·赫拉利 (Yuval Noah Harari) 著有《智人》和《Homo Deus》等国际畅销书,以其对人类过去、现在和潜在未来的全面分析而闻名。在最近对人工智能革命的反思中,Harari 提出了一个令人信服且发人深省的观点:
AI 的能力正在迅速增强,它可能很快就会达到一个阶段,人类甚至不再具备理解它在做什么的智力能力。
著名历史学家和哲学家尤瓦尔·诺亚·赫拉利 (Yuval Noah Harari) 著有《智人》和《Homo Deus》等国际畅销书,以其对人类过去、现在和潜在未来的全面分析而闻名。在最近对人工智能革命的反思中,Harari 提出了一个令人信服且发人深省的观点:人工智能可以创建如此复杂的系统,以至于人类之于他们就像马之于金钱概念一样——完全忽视了支配他们存在的机制。
Harari 首先倡导对 AI 革命采取细致入微的方法:“我认为对 AI 革命的基本态度应该是避免极端的态度:要么害怕 AI 即将到来并将摧毁我们所有人,要么避免过度自信 AI 将改善医学和教育的极端情况。 它会创造一个美好的世界。
他强调需要一条“中间道路”,从根本上认识到即将到来的转型的规模。“我们需要一条中间道路,首先,简单地了解我们面临的变化的规模。与这次革命相比,历史上所有的革命都相形见绌,因为纵观历史,每次我们发明一些东西时,人类仍然在做出所有的决定。
为了说明从以人为本的决策方式的转变,Harari 指出了金融和文化领域一个令人着迷但可能令人担忧的发展:“例如,在金融体系中也是如此。我最近刚刚读到一篇关于人工智能的文章,它创造了一种宗教,写了一本关于新宗教的圣书,还创造或帮助传播了一种新的加密货币。理论上,它现在拥有 4000 万美元——这个 AI。
这个例子是一个跳板,可以提出一个关于 AI 未来自主性及其对我们当前控制的系统的潜在影响的关键问题:“现在,如果 AI 开始拥有金钱——开始拥有自己的金钱——并有能力决定如何使用它,会发生什么?如果他们开始在证券交易所投资?Harari 假设。“突然之间,要了解金融体系中正在发生的事情,你不仅需要了解人类的想法;您还需要了解 AI 的理念。人工智能可以创造我们无法理解的想法。
Harari 警告的关键在于这种可能存在智力鸿沟的可能性,他用了一个有力的比喻:“马无法理解人类对金钱的看法。我可以卖给你一匹马换钱;马不明白发生了什么,因为马不懂钱。同样的事情现在可能会发生,但我们会像马一样。马和大象无法理解人类的政治体系或控制他们命运的人类金融体系。关于我们生活的决定将由我们根本无法理解的高度智能的 AI 网络做出。
难以理解的未来的影响
Harari 的担忧触及了控制和理解的一个基本方面。如果 AI 开发的系统(金融、物流,甚至可能是社会或政治)按照人类无法理解的原则运行,那么我们监督、调节甚至预测其行为的能力就会大大减弱。想象一下,一个全球金融市场在很大程度上受到自主 AI 代理的影响,这些代理根据策略和数据模式进行数万亿笔交易,这些策略和数据模式对于人类经济学家来说太复杂或陌生了。这样一个系统的稳定性和公平性将很难确保。
这不仅仅是一个牵强附会的科幻场景。我们已经在高频交易算法中看到了这一点,其中买卖订单基于复杂的模型在微秒内执行,即使对其创建者来说,这些模型也通常是“黑匣子”。2010 年的“闪电崩盘”,股市莫名其妙地暴跌,然后在几分钟内恢复,这在很大程度上归因于自动交易系统的相互作用。随着人工智能能力的增长,这种不透明系统的规模和复杂性可能会急剧扩大。
当前 AI 发展中的回响
AI 模型越来越复杂和更难解释的趋势已经显而易见。例如,深度学习模型可以在图像识别、自然语言处理甚至科学发现等领域取得卓越的性能,但它们的内部决策过程通常很难剖析。研究人员正在积极研究“可解释的 AI”(XAI),以使这些系统更加透明,但挑战随着模型的复杂程度而增加。
正如 Harari 所暗示的那样,挑战不是阻止 AI 的发展,而是以谨慎、谦逊和深刻的认识来前进,并深刻意识到我们正在释放的变革力量。它需要强大的框架,协调一致地推动 AI 的可解释性,并就我们愿意给予非人类智能的自主程度进行社会对话,尤其是当他们的“思想”可能在我们自己的认知视野之外的领域中运作时。目标是确保随着 AI 的发展,人类不会无意中成为“马”,受到它不再理解的力量的影响。
来源:人工智能学家