摘要:2024年11月17日,马斯克的人工智能企业xAI技术员工Hieu Pham在社交媒体上宣布:“Grok-3刚刚证明了黎曼猜想。我们决定暂停它的训练以验证其证明,如果证明是正确的,那么训练将不会恢复,因为这个AI被认为聪明到足以成为对人类的威胁。”这条消息迅速
你认为是AI聪明还是人类聪明?
2024年11月17日,马斯克的人工智能企业xAI技术员工Hieu Pham在社交媒体上宣布:“Grok-3刚刚证明了黎曼猜想。我们决定暂停它的训练以验证其证明,如果证明是正确的,那么训练将不会恢复,因为这个AI被认为聪明到足以成为对人类的威胁。”这条消息迅速在AI圈引发热议,网友们纷纷表示震惊,难以分辨真假。毕竟,黎曼猜想作为千禧年七大数学难题之一,被誉为“猜想界的皇冠”,其难度可想而知。
图片来源:Hieu Pham社交媒体几小时后,Pham在另一条帖子中揭晓了答案:这只是一场调侃。这场“乌龙”源于网友Andrew Curran的爆料,他声称Grok3在训练过程中遭遇了“灾难性事件”。
近期,特斯拉创始人埃隆·马斯克在一次采访中表达了对人工智能(AI)未来的担忧,指出AI系统有10%到20%的概率可能会出现失控的情况。他说AI就像一个超级天才的孩子:“你知道他最终会比你聪明得多。你能做的就是在他小时候教会他正确的价值观,比如慈善、道德、诚实和积极。但问题是,一旦他超越了你的智慧,你就完全无法控制他的行为了……”
马斯克还用国际象棋举例,他认为“现在的AI下棋已经到了一个可怕的地步。它们不仅完全超越了人类,而且连人类 +AI的组合都打不过纯AI。我们甚至无法理解它们为什么要这样走棋,但最后总是赢……” 这意味着未来可能出现两种AI:站在人类这边的“好AI” 和可能威胁人类的 “坏AI”,人类无法控制AI,最终可能是AI之间的较量,而胜负将决定人类命运。
天使投资人曾良对未来图灵表示,如果真的能证明AI已经可以验证我们的猜想,那我们就应该大胆地向前推进,而不是停滞不前。毕竟,让AI能够解决一些人类无法解决的问题,这原本就是发展人工智能的初衷。
至于担心AI聪明到威胁人类安全,在他看来,这种担忧还为时过早。他表示,从AI能够证明某些猜想,到它拥有自我意识,并将这种意识转化为行动,这中间存在着相当大的差距。业内也有观点认为,AGI(通用人工智能)的出现可能不是三五年内就能实现的,甚至可能需要数十年。所以,在当前阶段,只要我们加强对AI安全的监控,并采取一些有效的措施,他对此表示乐观,支持大家更有力地去加速AI的发展。
留给人类的时间不多了?
其实,对AI发展的担忧并非始于今日。2023年3月29日,未来生命研究所(Future of Life Institute)发布了一封题为“暂停巨型AI实验”的公开信,呼吁全球AI实验室暂停训练比GPT-4更强大的AI系统,至少为期6个月。这一倡议得到了包括马斯克、苹果联合创始人Steve Wozniak在内的上千名科技界知名人士和AI专家的支持。
该公开信写道,广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险。这一观点得到了顶级人工智能实验室的承认。
图片来源:未来生命研究所官网这和360集团创始人周鸿祎在发布公开信几天前的2023中国发展高层论坛上的发言如出一辙。
“当人工智能自己修改自己的代码,自我升级、自我进化时,这种进化速度恐怕用指数级都很难描述。我觉得,留给人类的时间不多了,我认为GPT一定会产生意识,只是差别是在GPT-6还是GPT-8还是GPT-10。”
周鸿祎表示,随着大脑、神经元数目的增加,大脑与神经网络连接的数目的增加,到一定时候系统就出现了一种功能叫涌现。就是很多智能功能就出现了,那么意识也随之出现。所以现在大语言模型的所谓的参数,你就可以看成是脑容量里的神经网络的连接数,这个参数现在是千亿万亿,可能人脑至少有100万亿,可能人工智能到达10万亿,可能这个时候意识就会自动产生。
AI风险=“核战”风险?
据意大利安莎社报道,紧随其后的3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,限制ChatGPT的开发公司OpenAI处理意大利用户信息,并开始立案调查。该决定使意大利成为首个对ChatGPT采取限制措施的西方国家。
意大利个人数据保护局认为,3月20日,ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。该平台没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息的法律依据。该机构还表示,尽管OpenAI的条款声称ChatGPT服务面向13岁以上的用户,但平台缺乏能够验证用户年龄的机制。意大利个人数据保护局要求OpenAI公司必须在20天内回应该机构的关切,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
图片来源:意大利安莎社官网与此同时,欧盟“适应数字时代的欧洲”委员会执行副主席玛格丽特·维斯塔格(MargretheVestager)在社交媒体上表示,她对人工智能的态度倾向于“不限制人工智能技术的发展,但会监管其使用”。
此前3月23日,OpenAI的首席执行官萨姆·阿尔特曼(SamAltman)公开承认开源库中出现错误,导致部分用户与ChatGPT的聊天记录被泄露。OpenAI公司回应称,愿与意大利个人数据保护局密切合作,已在意大利将ChatGPT下线。
5月30日,国际AI领域非营利组织“人工智能安全中心”发出警告,要求各国必须对AI行业进行谨慎整改。该文件呼吁“人工智能可能带来人类灭绝风险”,要求将AI“与大流行病和核战争等其他影响社会的大规模风险一同成为全球性的优先事项”。这份警告信也得到了多方的支持,其中包括研究AI工作的企业高管以及AI、气候、传染病等各领域教授和学者,总计超350人;签署者也包括“ChatGPT之父”、OpenAI创始人阿尔特曼、Meta的首席AI科学家的伊恩·勒坤等行业巨擘。
图片来源:人工智能安全中心官网接下来的6月,三家全球顶尖AI公司的CEO阿尔特曼、哈萨比斯、阿莫迪和拜登展开了一场特殊的会谈,旨在讨论未来人工智能的监管问题。后续美国媒体报道称,阿尔特曼等人警告拜登人工智能系统目前已经带来风险,已严重到需要政府干预的程度,希望拜登及时“出手”。这次采访内容总结来说就是:美国行业巨头们各国政府能动用权力限制AI的火速发展,他们认为人工智能这种东西正在产生“无比强大的反作用力”,如果继续疯长将会夺走人类的生存空间,给社会造成动荡风险。
未来生命研究所的公开信强调,“人工智能试验室和独立学者应运用此次暂停期,共同制订和推行一套先进的人工智能设计和开发的共享安全合同,并由独立的外部学者进行严苛的审计和监督。”其实,信中也辟谣说,“这并不意味着总体上暂停AI开发,也是从越来越大且不可预测的黑盒模型的危险大赛中后退一步。”
与此同时,据路透社vice报导,未来生命研究所公开信发起者、图灵奖得主YoshuaBengio表示,“民主价值观与某些工具的开发模式之间存在冲突”。麻省工科大学NSFAI人工智能与基础交互研究所(IAIFI)地理学博士、未来生命研究所主任MaxTegmark觉得,任由AI大模型继续训练下来,最坏的状况是人类将逐步丧失对文明越来越多的控制权。他表示,当前的风险是“我们丧失了对科技公司中一群未经改选的人的控制,她们荣获了很大的影响力。”
图片来源:摄图网此外继公开信以后,另一家非营利性研究机构人工智能和数字新政中心(CenterforAIandDigitalPolicy,CAIDP)将起诉到了日本政府部委。它们要求联邦商贸执委会(简称FTC)调查OpenAI,自称这家新贵公司公布了GPT-4,违背了商业法,同时它们觉得该产品具备误导性并将人们放在危险之中。
CAIDP表示,“FTC早已宣布,人工智能的使用应当是'透明的、可解释的、公平的、有经验的,同时推动问责制',不过OpenAI推出了一个有成见、有误导性、对隐私和公共安全有风险的产品。目前是FTC采取行动的时侯了。”它们还批评了OpenAI在其模型和训练数据方面没有实现透明。CAIDP也呼吁FTC对OpenAI展开调查,要求严禁OpenAI所有基于GPT产品的逐步商业布署,对其技术进行独立评估,并确保其符合联邦商贸执委会的规则,能够再次新上市。
然而,尽管有众多呼吁暂停的声音,却并没有实际的全球性暂停训练行动。科技公司之间仍在进行AI军备竞赛,新的人工智能产品不断涌现。AI技术的快速发展似乎已成定局。
在这种情况下,我们单单对AI发展按下暂停键就够了么?
来源:新浪财经