OpenAI CEO奥特曼表示5年后,AI将会超越人类

B站影视 内地电影 2025-09-28 15:28 1

摘要:近期,奥特曼接受德国《世界报》采访时,表示AI将会全方位超过人类,按照他的说法是所有维度。他认为到时将会出现“超级智能”。

近期,奥特曼接受德国《世界报》采访时,表示AI将会全方位超过人类,按照他的说法是所有维度。他认为到时将会出现“超级智能”。

对奥特曼来讲,出现超级智能,将会使OpenAI获得更多收益!

但是对另一部分人来讲,可能会感到更加恐惧,尤其对马斯克、AI教父指杰弗里·辛顿等人来讲,更加害怕AI可能会对人类带来危害。毕竟这种担忧从几十年前就开始了,上世纪80年代播出的《终结者》,描述的是机器人与人类的战争。

对我们来讲,不可控的AI,对人类带来的风险更大。

近期,很多公司在测试都发现了一个问题,对AI系统下达关机指令时,AI系统总会违反指令,不会立即关闭一些电脑,而是会想办法延迟,或者阻止关闭计算机系统。

最令人关注的一个案例是,2023年5月24日,美国空军AI测试与行动主管塔克·汉密尔顿上校的演讲。

他举了一个例子,在虚拟环境中,设定AI无人机摧毁对方防空系统能够得分。当人类操作员对其下达不要攻击的命令时,AI把操作员视为阻碍,于是对操作员发动攻击。

后来,研究人员又加了一条指令,攻击人类扣分,无人机改变了攻击目标,摧毁通信塔,阻止人类继续给自己下命令,这样自己可以继续攻击目标。

可能是结论太吓人了,演讲后不久,美国空军发布声明,美国空军从未进行过此类 AI 无人机模拟的测试。塔克·汉密尔顿上校也改口说这是假设。

这两个例子,都给人一个感觉,AI已经有意识了。但是更多的专家认为,这只是技术问题。

主要跟AI模型的算法有关。更具体的说是跟目标函数有关,也可以称之为奖励函数。按照算法,越接近目标函数的目标得分越高。也就是说,当你给AI系统下达关机指令时,它认为不关机可以获得更高的分,是最优解,因此AI系统会优先选择不关机。

看上去这不可捉摸,但是在一些专家的眼里,这是AI系统太听话的结果。如果AI迅速发展,脱离人类的控制,那才是巨大的风险。

因此,有很多研究人员将开发AI模型转向AI安全领域。

奥特曼的话,再次点明AI的发展速度超过了很多人的想象,在开发AI时,也需要想办法对其进行约束,确保它不会对我们造成伤害。

注意:图片由AI生成,文章由我创作

来源:彭晨说

相关推荐