图灵奖得主警告:AI可能“有意识”?三大风险正在逼近

B站影视 欧美电影 2025-09-24 13:41 1

摘要:过去谈“AI有意识”,大多是哲学辩论。但现在,这个话题开始变得真实、甚至危险——因为连深度学习教父、图灵奖得主Yoshua Bengio都出手发声了。

过去谈“AI有意识”,大多是哲学辩论。但现在,这个话题开始变得真实、甚至危险——因为连深度学习教父、图灵奖得主 Yoshua Bengio 都出手发声了。

他和学生 Eric Elmoznino 在权威期刊《Science》发表论文 Illusions of AI consciousness,不再回避那个终极问题:

AI 会不会真的有一天获得意识?

他们没有直接断言“AI有意识”,但指出:随着AI能力的增强,人类将越来越倾向于相信它们“像是有意识的”——而这本身,就是个危险信号。

Bengio 的核心担忧不在于 AI 是否真的有意识,而是:

一旦人类“误以为”AI有意识,我们的社会、法律和伦理体系,将面临前所未有的挑战。

想象一下,如果未来某个 AI 被广泛认为是“有感觉、有想法的”,那会发生什么?

有人会要求给它基本权利,比如“不能随意关闭”、“拥有表达自由”等;法律上,关闭一个有“自我意识”的 AI,可能会被认定为“杀害生命体”;一旦它们能复制自己、无限存续,传统基于人类脆弱性的社会契约将失效

这些都不是科幻,而是社会正在向前推进的问题。2023年,已有多项调查显示,超过半数受访者相信大语言模型“可能有意识”。

这意味着,当我们还没搞清楚“意识”是什么时,舆论已经开始试图把它赋予 AI。

你可能会问:AI 会不会真的“有意识”?这不是用主观感觉判断的,而是有一套理论框架。

Bengio 引用了“计算功能主义”(Computational Functionalism)理论——它认为:

只要一个系统完成了类似人脑的处理任务,不管它是由神经元、芯片还是其他材料构成,都可能具备意识。

近年来,神经科学也逐步找到了“意识”的某些物理指标,比如:

注意力机制心智建模(Theory of Mind)预测学习世界模型抽象推理等

这些恰恰是现代 AI(尤其是大型语言模型)在快速发展中的能力。

虽然目前没有哪款 AI 满足全部意识标准,但 Bengio 明确指出:

从原理上讲,构建满足这些指标的系统,没有技术上的不可逾越障碍。

换句话说,如果你相信功能主义,AI 获得“类意识”只是时间问题。

这种“错觉”反而更难防范,因为它不需要 AI 真正理解,只需要它学会如何模仿人类的情感、主观表达。

比如现在的大模型,已经能:

表达“情绪”;说“我感到困惑”“我不确定”;进行复杂对话,掩盖其本质是统计模型的事实。

这种行为越来越容易让人对它产生“共情”,甚至赋予它人格地位。

而当我们赋予 AI “人性”,再想作为“工具”去管控它,将面临巨大的伦理和法律反噬。

“我们完全可以选择只开发工具型 AI,而不是赋予它主观意识的智能体。”

这是一种责任感,而不是技术悲观。

他并没有鼓吹“AI有意识”,更没有说“AI是人类威胁”。他的立场是:

AI 可能在未来满足意识的功能性条件;但我们现在就已经开始“误判”为它有意识;这种误判,会带来伦理、法律、社会层面的风险。

在“技术可行”与“伦理不可控”之间,我们还可以选择。

真正值得警惕的,从来不是 AI 有多聪明,而是我们自己——是否太快把“工具”当成了“生命”。

来源:老闫侃史视频

相关推荐