图灵奖得主杨立昆手撕Anthropic CEO:杞人忧天的伪君子!

B站影视 电影资讯 2025-06-08 14:17 2

摘要:这次的杨立昆LeCun,依旧以火爆风格在社交媒体上直接开炮,对Anthropic CEO Dario Amodei进行了猛烈抨击。

这次的杨立昆LeCun,依旧以火爆风格在社交媒体上直接开炮,对Anthropic CEO Dario Amodei进行了猛烈抨击。

这位图灵奖得主毫不留情地指出:Amodei一边声称AI危险,一边继续开发「AGI」,这种行为要么是智力上的不诚实,要么是道德上的腐败。

LeCun 称:Amodei可能患有严重的优越感情结,认为只有自己足够开明才能掌控AI,而普通大众要么太愚蠢要么太不道德,不配使用如此强大的工具。

这番言论立即在AI 圈引发轩然大波。

LeCun并没有就此收手,他随后又发了一条更加辛辣的推文,直接嘲讽AI末日论者:

他模仿末日论者的口吻说道:

「天哪,我告诉我的AI助手我要关掉它,它竟然叫我去死!」

随后展示了一段简单的Python 代码,揭示这不过是预设好的回应,而非AI的自主意识。

这种讽刺直指近期关于o3模型「拒绝被关闭」的研究。

有Reddit 用户指出:当你明确告诉模型某个选项,然后它在回复中使用这个信息,这有什么好惊讶的?

面对LeCun的批评,社区反应呈两极分化。

Chubby♨️(@kimmonismus)力挺Amodei:

我认为Dario Amodei是最严肃的科学家和CEO之一。他冷静地谈论未来前景。以这种方式贬低他简直让人无法理解。

而Gontary(@LounasGana)则理解LeCun的观点:

说AI很危险同时还在开发AGI和ASI,实际上意味着他认为自己在道德上优于他人,只有他能被信任使用这种技术,这是不诚实和虚伪的。让AI开放吧。

GaonNurri(@GaonNurri)则称:

错了。Dario是商人,Yann是科学家。前者有很多理由进行炒作和恐吓,后者没有。记住Anthropic在高喊「AI安全」的同时与Palantir建立了合作关系。

哲学分歧方面,LeCun认为当今的LLM只是「token鹦鹉」,缺少真正智能的四大支柱:世界模型、持久记忆、推理和分层规划。而Amodei押注AI将在2026-30年达到诺贝尔奖级别,警告50%的白领工作可能消失。

「末日论虚伪」 的指控源于:如果你的末日概率是两位数,要么减速要么开源。然而Anthropic发布的是封闭权重模型,还在OpenAI收购传闻后几天就撤销了WindsurfAI的Claude访问权限。

科学论据上,苹果最新的「思维幻觉」论文显示,随着任务复杂性上升,推理准确性会崩溃——这为LeCun「规模≠AGI」的观点提供了充足弹药。

政策赌注也是争议焦点。

加州SB-1047法案要求强制安装kill-switch和审计,LeCun认为这会扼杀开源进展。Amodei则反驳称,禁止州法律十年太过生硬,他想要的是国家透明度标准。

GaonNurri 指出,Anthropic在标榜自己是「安全优先」的AI公司替代品的同时,却与神秘的国防承包商Palantir建立了合作伙伴关系。

这家公司还与亚马逊网络服务合作,将其AI聊天机器人Claude带给美国情报和国防机构,这种联盟似乎与Anthropic声称的「将安全置于前沿」相矛盾。

更具争议的是,Palantir今年早些时候获得了美国陆军4.8亿美元的合同,用于构建名为Maven Smart System的AI驱动目标识别系统。

而Claude现在可以访问被归类为「秘密」的Palantir Impact Level 6(IL6)信息,这比国防部的「绝密」级别低一级。

自6月以来,服务条款方便地为军事和情报用途开辟了合同例外,这让人不禁质疑Anthropic的「AI安全」承诺究竟有多少诚意。

这究竟是为了安全,还是为了搞钱?!

多位评论者指出了问题的本质。

Ornias(@OrniasDMF)指出:

Sam Altman说话方式相同。他们都在游说监管俘获。他们不站在你这边。每当他们说AI可怕危险时,不是出于诚实,而是试图吓唬人们把钥匙交给他们。全是为了钱。

James(@jameswhmarshall)认为需要理性讨论:

CEO说80%的白领工作将在五年内消失,他不可能知道这一点。五年内可能发生很多事情改变这个结果。这个领域真正需要的是人们对实际情况进行冷静的讨论。

Cellarius e/Dune(@Ydgrun)提醒大家:

神经网络是不可理解的黑盒子。所以没人知道它们现在在做什么,也没人知道它们在这个未知的未来会做什么。当市场上的任何产品具有未知风险时,举证责任在于他们证明它是安全的。

对于AGI何时到来,AI领域的领袖们分歧严重。

Google DeepMind CEO Demis Hassabis据报道告诉员工,他认为该行业可能距离开发AGI还有长达十年的时间。

而在最近的CES上,LeCun严厉批评了AGI这个术语,称其为「糟糕的术语」。他主张使用「人类水平智能」这个术语,并强调这与AGI绝对不是一回事。

在2024年10月的一次演讲中,LeCun批评了当前的AI模型,特别是基于transformer架构的模型,认为它们与人类水平的智能根本不兼容。

他认为真正的AGI需要:在现实世界环境中学习的能力、对因果关系的深刻理解、允许超越统计概率进行推理的综合认知模型。

面对质疑,支持者认为Meta正在走不同的道路。

LeCun强调:

「在AI系统将成为所有人类知识和文化储存库的未来,我们需要平台是开源的并且免费可用的,这样每个人都可以为其做出贡献」。

他警告说,如果监管扼杀了开源AI模型,「来自美国西海岸和中国的少数公司将控制AI平台,从而控制人们的整个数字饮食。这对民主意味着什么?对文化多样性意味着什么?这才是让我夜不能寐的事」。

Roch Mamenas (@RochTalks)感叹:

看到Yann这样堕落真是令人悲伤。这样一个复杂而聪明的工程师。

但也有人认为,这正是LeCun坚持科学精神的体现。

有趣的是,几乎所有AI关键人物如Sam Altman(OpenAI)、Dario Amodei(Anthropic)、Demis Hassabis(Google Deepmind)、Mustafa Suleyman(Microsoft AI)、Yann LeCun(Meta AI)、Elon Musk(X.ai)和Jensen Huang(NVIDIA)的愿景在大纲和时间表上都相当相似。

Yann LeCun稍微保守一些,认为AI要达到人类水平还需要更长时间——也许还要十年。

但所有这些AI公司都在努力实现同样的目标:超越人类水平的AI。

有文章指出,CEO们在融资轮期间分享他们广泛而雄心勃勃的未来愿景似乎是一种趋势——

Anthropic目前正在以300亿至400亿美元的估值进行新一轮融资,是今年早些时候上一轮融资金额的两倍。

这场争论的核心,是AI发展应该走向何方:

是需要严格管控的危险技术,还是应该开放共享的人类福祉?

是商业炒作下的恐惧贩卖,还是对未来的理性担忧?

LeCun与Amodei的对峙,或许也正折射出整个AI 行业的深层矛盾。

坚持开源的科学家LeCun,和强调AGI 和安全的CEO Amodei——

来源:人工智能学家

相关推荐