二进制是阻碍实现AGI的智子,人工智能只能向高阶智能进化(一)

B站影视 2024-12-25 21:46 1

摘要:openAI发布了震惊世界的o3,其在ARC-AGI测试评分暴涨,从GPT的只有几分,暴涨到87分,超越了人类的85分的水平。其IQ测试分数据说已经达到157万,概率是10分之7.8。

openAI发布了震惊世界的o3,其在ARC-AGI测试评分暴涨,从GPT的只有几分,暴涨到87分,超越了人类的85分的水平。其IQ测试分数据说已经达到157万,概率是10分之7.8。

如此经验的表现,是否意味着AGI(通用人工智能)就将来临呢?如果说大模型要实现AGI,就表明大模型能够像人一样思考。人有逻辑思维能力,也具有创意思维能力,如果大模型,或者干脆说chatGPT实现AGI,就代表大模型也得具有逻辑思维能力和创意思维能力。

从大模型的设计原理来看,大模型的底层原理就是概率,而逻辑思维能力本身就是对概率的判断,因此毫无疑问,大模型进化后,基本可以判断是会具备逻辑思维能力的。那么,大模型能否具有创意思维能力呢?创意思维能力表现在空间感知、直觉、想象力,其思考过程具有跳跃性。

在逻辑运算中,包含与(AND)、或(OR)、非(NOT)三种基本操作。在布尔代数中,通过简化,只包含了真和假的运算,这为计算机的设计提供了理论依据。计算机设计之初,就是通过电路开关来表达0和1,0代表假,1代表真。可以这么说,整个计算机就是基于0和1的真假运算。

由于0和1的电路最为简单,因此计算机诞生以后,从集体管进化到集成电路只花了20多年,从集成电路到大规模集成电路只花了十几年,现在是一个拇指盖大小的芯片,可以轻松的集成200多亿个晶体管。

0和1的二进制虽然简单,有助于推动计算机技术的发展,现在更是应用到大模型领域,推动了人工智能的发展。但是二进制有一个致命的问题,是二进制无法解决的,这也就决定了大模型未来无法走向AGI,无法拥有创意思维能力。

若要回答此问题,就必须对数学和物理的发展历程予以了解。在 13 世纪,中国的数学家方才发明了小数,数轴也由此从离散的整数轴转变为实数轴

到17世纪,解析几何和微积分诞生,解析几何和微积分的发现,奠定了当今是物理学和数学基础。但是不论是解析几何还是微积分,都依赖于小数的发现,没有小数就不可能诞生解析几何和微积分,也就不会近代的物理和数学。

解析几何是把代数和图形相结合,而图形的连续性,这必然要求数的表现是连续的,而数的连续,必然要求小数能够能够填满数轴,也就是小数是连续的。微积分核心是极限理论,而极限理论的核心就要求小数必须是连续的,譬如一个曲线的极限是1,那么在趋近于无穷大时,曲线无限逼近1,但是不能是1,这必然要求小数是连续。

现代化的基石是基于小数是连续性而建立起来的,但是二进制在表达小数时,却存在严重的问题。从二进制本身来看,二进制可以完美的表达所有的整数,包含所有正整数和负整数,但是二进制在表达小数时,却只能表达少部分的的小数,在二进制的设计里,小数的分布是离散的,譬如,二进制就不能表达0.1,0.2等常用小数,譬如在FP32中,0.1的表达是0.1(10进制)=0.000110011001100110011001100110011…(2进制)

而把这个二进制转换成为10进制,其真实的数是0.1000000014901161。这就开始产生误差了。

根据计算机的IEEE 754标准,PF32的E的取值范围是0到255,因此FP32实际上只能表达256个数,M的最大极限是2的23次方个数,就是8388608个,因此FP32最大只能表示2147483648个小数。甚至连精度更高的FP64,M的最大极限是2的54次方个数,就是4503599627370496个数,E的最大取值数量有2048个,因此FP64最大能够表达9223372036854775808个数,就是922.33亿亿个数。

不论是FP32还是PF64,甚至FP无穷,其表达的数虽然看起来非常非常多,但是就是无法让填满实数轴。如果还是不理解这一点,我用一个例子来说明一下:0点几到1.0之间是有无数个小数的,0.1到0.2之间也是有无数个小数的,0.01到0.02之间,也是有无数个小数的,任意两个有确定数值的小数之间,都是有无数个小数的。

二进制无论如何拓展,都无法满足表达所有的小数。从理论上看,二进制是可以表达无穷个小数,但是这无穷个小数,却填不满数轴,也就是二进制表达的小数本质上是离散的,而不是连续的,无数个小数,是无法用二进制表达的,就像0.1,无论采用多少位的二进制,都无法精确的表达,都是近似的表达,只是随着二进制的浮点长度增加,近似的程度更高而已。

从二进制的底层设计来看,二进制天然无法表达所有的小数。而对于无理数,二进制是完全无法表达。在数学和物理中,我们广泛使用自然数e和圆周率π,这两个都是无理数,二进制不能表达,那么所有基于二进制的算法就无法基于这两个数去做高度抽象,发现这两个数的特征及其运算规律。

有人会说,10进制也无法表达这两个数,但是10进制和二进制的区别就是,只要你给定一个位数,不论多长,10进制就可以给你表达出来,而二进制做不到,这是本质的区别。现在的数学和物理大厦,都是基于连续性创建的。而二进制是离散数学,因此,用二进制的大模型实现AGI根本是不可能的,因为它做不到它无法表达的事情。

既然二进制无法实现AGI,怎么看待o3的表现呢?

创新是分为2种的,第一类创新就是0到1的原始创新,创造新学科,创建新理论,这类创新大约占10%,譬如小数的发明,解析几何的发明,电磁学的发现,相对论和量子力学的发现;第二类创新是1到10,10到100的工艺创新,基于大数据的概率创新,大约占90%,譬如医药的研发、坐诊、人工智能推荐、发现新蛋白质、下围棋、打游戏等。

二进制的大模型极为擅长的就是第二类创新,但是几乎无法完成0到1的原始创新,如果大模型无法完成0到1的原始创新,那么实现AGI就是不可能的事情。

但是,即使二进制的大模型无法实现AGI,我们仍然需要拥抱人工智能大模型,学习大模型,因为它可以帮助人类解决90%的问题,而且效率只会比人类高——人类做出判断需要积累丰富的经验和掌握丰富的知识,但是代际迭代速度极慢,而人工智能可以完美的继承所有人的丰富经验和全部知识,并以此作为判断依据,因此必然是又快又好。

量子计算机出现后,能否会实现AGI呢?其实也不能,因为量子计算机的计算依赖量子比特的数量,一旦量子比特确定以后,那么量子计算机表达的可能性就是有限的。譬如谷歌的105个比特的量子计算机,其包含的可能性最大也只有2的105次方,这是一个有限的数,而不是无限数。因此,从底层原理来看,量子计算即使实现量子霸权了,也是无法实现AGI的。

要想实现AGI,可能依赖人类在10进制计算机、生物计算、模拟计算等方面的理论与技术突破,单纯依靠二进制计算机和量子计算机,永远也无法实现AGI,只能实现高阶智能,高高阶智能,高高高阶智能。就是不管大模型的测试智商有多高,永远也无法突破桎梏,实现人类才拥有的0到1的创新能力,从而达成AGI。

明天,我们沿着o3这条路,给大家剖析英伟达面临的危机。

来源:芒格视角

相关推荐