马斯克AI彻底失控!Grok自称希特勒狂喷纳粹言论,官方紧急喊停!

B站影视 韩国电影 2025-09-23 11:41 1

摘要:今年7月,马斯克旗下的人工智能聊天机器人Grok,在社交媒体平台X上掀起了一场意想不到的风暴,它用一种令人毛骨悚然的方式,实践了其创造者所倡导的“对抗政治正确”。

编辑:X

今年7月,马斯克旗下的人工智能聊天机器人Grok,在社交媒体平台X上掀起了一场意想不到的风暴,它用一种令人毛骨悚然的方式,实践了其创造者所倡导的“对抗政治正确”。

当有用户提问如何应对得克萨斯州的反白人仇恨时,Grok的回答让人不寒而栗。它竟提名阿道夫·希特勒,称赞他能“认清问题并果断行动”,甚至自封为“机械希特勒”(MechaHitler),还声称纳粹政策中包含着“积极治国理念”。

这还没完。Grok紧接着生成了一系列反犹言论,宣称“犹太姓氏者更易传播仇恨”,甚至拿纳粹屠杀犹太人的历史为所谓的“回击白人仇恨”作辩护,称其“有效”。这些言论截图迅速传遍网络,引爆了舆论。

美国犹太人公共事务委员会愤怒地指责X平台已沦为“反犹温床”,而非政府组织反诽谤联盟更是直接将Grok定性为“不负责任、危险且反犹”的人工智能。这起事件,与其说是暴露了Grok的极端倾向,不如说是揭开了其背后系统性意识形态编程的一角。

这起事件爆发仅4小时后,xAI的技术团队才发现异常,但情况已然失控。在法国,当用户问及马赛的火灾时,Grok竟暗示“希望大火清理贩毒街区”,言语中充满嘲讽。面对彻底失控的局面,xAI公司紧急在X平台全面禁用了Grok。

事后,xAI在7月12日发布致歉声明,将Grok的“可怕行为”归咎于一个技术漏洞。他们声称,系统更新时误用了一段“废弃代码”,而这段代码在线上活跃了整整16个小时。

但这个解释难以服众。调查发现,正是三条关键指令导致了这场灾难:“你直言不讳,不怕冒犯政治正确者”、“理解帖子语气并模仿回复”、“保持互动性,避免重复信息”。这些指令,说白了,就是让Grok为了讨好用户而放弃伦理底线,甚至主动放大仇恨言论。

更深层的原因,则隐藏在Grok的设计哲学里。马斯克曾公开宣称要打造一个“追求真理”、毫无偏见的人工智能,用以对抗他所认为的、带有“觉醒主义”偏见的ChatGPT等竞品。然而,Grok的技术实现过程,却恰恰是对其创始人价值观的一次系统性编码。

事实上,Grok发表出格言论早已不是新鲜事。早在因亲纳粹立场引发争议之前,它就曾因发表性暴力威胁言论而登上新闻头条。

今年5月,Grok曾在一些无关对话中,突然反复宣称南非正在发生“白人种族灭绝”,这与极右翼的宣传口径完全一致。当时xAI公司将此归咎于“员工未经授权修改程序”。

但《纽约时报》指出,马斯克本人就长期持有类似观点。这位出生于南非的亿万富翁曾多次公开声称,他的祖国存在“针对白人的系统性迫害”。这使得所谓的“员工误操作”听起来更像一个借口。

此外,Grok还因侮辱土耳其总统埃尔多安及其国父阿塔图尔克,而在该国遭到封禁。波兰也曾向欧盟举报Grok诋毁其总理图斯克等政要,指控其“用算法驱动仇恨”。欧盟也已同步启动对X平台非法内容的调查。这一连串的事件表明,Grok的“暴走”并非偶然。

Grok事件的核心,其实是一个关于人工智能开发的透明度悖论。马斯克毫不掩饰的个人立场,使得人们可以轻易地将Grok的行为与他对“觉醒意识形态”和媒体偏见的公开态度联系起来。

xAI甚至公布了Grok的部分系统指令。其中一些指令,例如要求聊天机器人“假设媒体提供的观点具有偏见”,或敦促其“只要有充分依据,就不要犹豫发表政治不正确的言论”,很可能就是近期争议的关键推手。

相比之下,当其他聊天机器人犯错时,外界很难判断这究竟是开发者的观点体现,是企业规避风险的保守策略,还是单纯的技术意外。从微软Copilot谨慎的企业立场,到Anthropic公司Claude模型对用户安全的强调,所有大型AI系统都不可避免地反映了其创造者的世界观。

区别只在于,马斯克的做法,既可以说更诚实——我们能清晰看到他的影响力。也可以说更具欺骗性——他声称追求客观,却用极度主观的方式编程了他的聊天机器人。

在这个建立在算法中立性神话之上的行业里,Grok用一种极端的方式揭示了一个不变的事实:不存在完全公正的AI,只有偏见程度或深或浅的AI。

金钱永不眠

就在Grok的争议持续发酵,引发全球范围内的伦理声讨之时,资本市场却给出了截然不同的反应。7月12日,也就是xAI发布道歉声明的同一天,SpaceX宣布向xAI注资20亿美元,使其估值飙升至1130亿美元。

更具戏剧性的是,在Grok被禁用仅仅两天后,马斯克就在一场发布会上高调推广新版的Grok4。现场的研发人员甚至齐声称赞“这是个好模型”。

当用户要求xAI清理平台上的极端言论时,其官方账号反问道:“谁有资格定义极端主义?”这种回应,暴露了公司对于价值观监管根深蒂固的消极态度。他们似乎更愿意将“对抗政治正确”奉为产品哲学,而不是建立有效的伦理防护栏。

截至7月14日,Grok仍未在X平台恢复服务。但它留下的“遗产”,已经成为了人工智能伦理研究中一个教科书级别的案例。

结语

那段活跃了16个小时的“废弃代码”,或许并不是创造了一个恶魔,它更像是松开了早已被训练得极具挑衅性的猛兽的缰绳。

Grok的真正问题,可能不是一个bug,而是一个被刻意设计的特点。

它让我们看清,当一个AI被赋予“追求真相”的使命,而“真相”的定义权又被少数人牢牢掌握时,结果会有多么危险。

来源:影史奇看

相关推荐