从 AI 教父到王室成员!数百人联名叫停超级智能?风险覆盖生存安全

B站影视 内地电影 2025-10-24 13:36 2

摘要:科技圈里有维珍集团的理查德・布兰森,还有苹果联合创始人史蒂夫・沃兹尼亚克;AI 界更不用说,被称为现代 AI教父的约书亚・本吉奥、杰夫・辛顿,还有加州大学伯克利分校的顶尖研究者斯图尔特・拉塞尔都在里面。

最近刷到个挺受关注的事儿,超 850 位不同领域的名人联名,说要暂停超级智能的开发。

可能有人不清楚,这超级智能可不是咱们平时用的普通 AI,是那种几乎所有认知任务都能超过人类的尖端技术,现在科技圈都围着它抢着竞争呢。

先说说签名的人,那范围是真广。

科技圈里有维珍集团的理查德・布兰森,还有苹果联合创始人史蒂夫・沃兹尼亚克;AI 界更不用说,被称为现代 AI教父的约书亚・本吉奥、杰夫・辛顿,还有加州大学伯克利分校的顶尖研究者斯图尔特・拉塞尔都在里面。

而且不光这些搞技术的,学者、媒体人、宗教领袖,甚至美国前政客组成的两党团体也参与了,像前参谋长联席会议主席迈克・马伦、前国家安全顾问苏珊・赖斯,连英国王室的哈里王子和梅根、爱尔兰前总统玛丽・罗宾逊也签了名。

截止到周三,签名的人还在变多。

其实我觉得,这么多不同领域的人一起发声,早就不是单纯讨论科技事儿了。

以前科技圈有争议,大多就是业内人聊聊,这次不一样,各个行业、背景的人都站出来,说明超级智能的影响已经碰到人类社会的共同问题了,也让关于这技术发展的讨论,有了更多人的关注。

那为啥这么多人急着呼吁暂停呢?说到底还是怕风险太大,而且这些风险都涉及到人类社会的关键地方。

经济上的问题很明显,超级智能可能会让大量工作岗位消失,时间长了,失业的人就会变多,消费能力就下降,经济增长会受影响,甚至可能引发经济危机。

更关键的是,要是超级智能让生产力一下子涨很多,可需要的工人却越来越少,现在的经济体系就会被打乱,怎么让失业的人有生活保障、维持消费,这难题可不好解。

再说说权力和自由这块,风险也不小。要是社会越来越依赖 AI 做决策,人类对这些系统的控制能力就会变弱。政治上,算法和大数据可能会影响 AI 的判断,进而左右政治决策,让传统的权力中心话语权变少,国家治理也会更难。

平时生活里,AI 算法会筛选信息推送给我们,慢慢就会限制我们获取更多样的信息,独立思考的能力也会变弱,最后可能连自己生活的控制权都没了。

国家安全和人类生存的风险更让人担心。超级智能可能会帮黑客搞网络攻击,发起那种隐蔽又精准的攻击,让互联网空间变得人人都没安全感。

军事上,要是发展致命性自主武器,战争的样子可能会改变,破坏力和不可控性都会大大增加。

最吓人的是,万一超级智能超过人类,它的行为和决策我们理解不了,甚至把人类当成威胁,那后果就太严重了,就像本吉奥警告的那样,可能会给人类带来灭顶之灾。

在我看来,这些风险不是随便说说的。技术发展本来就有好有坏,普通 AI 已经在一些地方出现问题了,超级智能比它更高级,风险传播和破坏的能力也会更强。要是没做好防控就瞎推进,说不定人类会陷入没法挽回的局面。

不过虽说风险多,超级智能的发展势头一点没减,科技巨头们还在拼命竞争,这也让人类在发展和安全之间,很难做选择。

有意思的是,就算是这些推动超级智能发展的巨头老板,以前也警告过它的风险。OpenAI 的 CEO 奥特曼在 2015 年还没当这个职位的时候就说,超人机器智能的发展可能是人类生存最大的威胁。

埃隆・马斯克今年早些时候在播客里也提到,高级 AI 超过人类智能,有 20% 的可能会带来毁灭。这种一边推进发展,一边警告风险的矛盾情况,其实也反映出科技巨头在商业利益和社会责任之间,很纠结。

在我看来,超级智能的未来,不该是要么赶紧开发,要么彻底停下这两种极端情况,而是要在发展和安全之间找到平衡。

毕竟技术最终是为人类服务的,不是让人类陷入生存危机的,只有理性控制发展节奏,超级智能才能真正帮人类进步。

来源:成倚贤

相关推荐