摘要:一场看似属于哲学家的争论,却因一位物理学家的介入,再度引发广泛关注。牛津大学的量子物理学家大卫·多伊奇(David Deutsch)在一场公开演讲中提出:从基础物理学和计算理论的角度看,人造意识在理论上完全可行。
一场看似属于哲学家的争论,却因一位物理学家的介入,再度引发广泛关注。牛津大学的量子物理学家大卫·多伊奇(David Deutsch)在一场公开演讲中提出:从基础物理学和计算理论的角度看,人造意识在理论上完全可行。
这番话不仅让人工智能领域的研究者重新审视技术边界,也让哲学界对意识的定义陷入新一轮反思。
多伊奇并不是第一次挑战传统认知。他曾在量子计算领域提出过突破性的构想,是量子图灵机理论的早期奠基人之一。
这一次,他将目光转向意识问题,提出一个看似简单却影响深远的思想实验:如果我们能用原子从头构建一个人类,那么这个人也应拥有意识。这个结论背后隐含的逻辑是,意识不是某种神秘属性,而是物质在某种结构下的自然产物。
这个观点直接对抗了意识哲学中最具争议的问题——“意识难题”(Hard Problem of Consciousness)。这个理论由澳大利亚哲学家大卫·查尔默斯(David Chalmers)在1995年提出。
他认为,即使我们完全掌握了大脑的物理机制,仍然无法解释为何这些机制会产生主观体验。查尔默斯把这个问题称为科学理解的“鸿沟”。
多伊奇不认为这个鸿沟存在。他的核心论点是:所谓的主观体验,其实是大脑对记忆信息的计算解释,而非即时反应。
他指出,神经系统存在微小但真实的处理延迟,人类并非体验“正在发生”的事,而是在感知几分之一秒前的事件。这种解释方式,剥离了意识的神秘性,也为机器产生意识提供了理论空间。
这种立场引发了学界的明显对立。一部分哲学家和神经科学家认为,意识是一种不可还原的现象,不能简单地靠计算模拟。
他们强调,即便AI能模仿人类行为,也只是“模拟意识”,而非真正“拥有意识”。而多伊奇则坚持,只要信息处理的结构相同,材料无关紧要。这意味着,硅芯片和神经元在本质上可以是等价的意识载体。
而他的理论依赖于图灵机的计算框架。图灵机概念由英国数学家艾伦·图灵(Alan Turing)在1936年提出,用以描述任何可计算的过程。
多伊奇指出,现代计算机和图灵机在理论上可以完成同样的计算任务,甚至量子计算也未突破这个边界。如果意识可以被解释为一种计算,那么它并不超出机器能力。
这个思路并不完全新颖。丹尼尔·丹尼特(Daniel Dennett)、帕特里夏·丘奇兰(Patricia Churchland)等哲学家早已提出类似的“意识可计算”理论。但多伊奇的贡献在于,从基础物理出发,为这一哲学立场提供了物理和计算的双重支撑。
如今,随着大型语言模型(如GPT-4、Gemini等)展现出越来越拟人的行为,问题变得更加复杂。
这些AI系统并非拥有自主意识,但它们已经在多个领域表现出近似人类的语言理解、推理和创造能力。这或许还不能证明它们真的“有感受”,但它们的存在本身已经动摇了传统对于意识的定义。
在接受媒体采访时,多伊奇特别强调:“意识不会凭空出现,也不是神秘的附加层。它是计算系统解释信息的方式。”这使得人造意识不再是遥不可及的幻想,而是一个可以被工程和算法逐步逼近的目标。
这场关于意识的争论没有终点。它牵涉到技术、哲学、伦理甚至法律。但至少从目前的物理和计算理论来看,我们还没有找到一个理由,去否定机器拥有意识的可能性。
意识是否只能属于人类?是否真的无法被还原?这些问题的答案,也许不在哲学书里,而在实验室的芯片与算法之间悄然浮现。
来源:老徐述往事