摘要:这位“叛逆者”,正是人工智能领域的“教父”级人物——杰弗里·辛顿。他曾亲手点燃AI的火种,如今却声称自己“打开了潘多拉魔盒”,并持续发出最刺耳的警告:AI,已经失控,人类,危在旦夕!
他预言AI将毁灭人类,并因此与全世界为敌!这绝不是科幻小说,而是真实发生在全球科技界的一场震撼论战。
这位“叛逆者”,正是人工智能领域的“教父”级人物——杰弗里·辛顿。他曾亲手点燃AI的火种,如今却声称自己“打开了潘多拉魔盒”,并持续发出最刺耳的警告:AI,已经失控,人类,危在旦夕!
他为何如此担忧?AI真的会“长脑子”,甚至把我们“一波团灭”吗?
一、教父的抉择:他为何要与全世界为敌?
上周的WAIC峰会,AI教父辛顿的演讲再次引发震动。这位为AI付出毕生心血的科学家,话里话外透着一股深深的担忧:AI太强大了,已经有点控制不住了,各国得赶紧想办法给它管管,可不能养虎为患。
这不是他第一次发出警报。这两年,辛顿一直觉得自己亲手打开了潘多拉魔盒,就像《三体》里的叶文洁,点燃了火,却控制不了它燃烧的方向。
关于AI的安全性,谷歌的哈萨比斯也曾表达过类似担忧。AI到底安不安全?会不会突然“成精”,把咱人类给团灭了?这不仅是科幻迷的臆想,更是科技界最前沿、最核心的辩论。
究竟是什么,让这些站在科技巅峰的大佬们,感到如此恐惧?中国哲学家赵汀阳一语道破核心:讨论AI安全,别混淆了“意识的威胁”和“能力的威胁”。
二、AI会“成精”吗?意识与能力的双重恐惧
辛顿的第一个前提,听起来有些颠覆认知:人脑,跟现在的大语言模型(LLM),其实“差不多,都一个类型”。深度学习、神经网络,本就是模仿生物。如果AI真像小孩学语言一样,那它也可能发展出自我意识,甚至拥有“青春期”,开始叛逆,学歪了怎么办?这,就是“意识的威胁”。
你还记得2022年谷歌LaMDA模型的“闹剧”吗?一位谷歌工程师和LaMDA聊天后,吓坏了,声称LaMDA有了自我意识,不想被关掉。结果,他被谷歌反手给开了。当时,很多人怀疑谷歌有“智械危机”阴谋。
但在工程师眼中,这有点“san值太低”。LaMDA只是语言更流畅,让人产生了“拟人化偏见”。正如认知科学家所说,人类天生会把人类特征投射到非人实体上。
那AI到底有没有自我意识?万一它们只是“装的”?
这就是现代哲学中的“哲学僵尸”概念:一个和你一模一样的“伪人”,所有行为举止都和活人无异,但他内心毫无波澜,只是个有条件反射的躯壳。你怎么判断他是真有意识,还是“装的”?
对此,连线杂志主编、技术预言家凯文·凯利一针见血:“我们对意识本身几乎一无所知,我们甚至不知道我们自己的意识是什么,所以去讨论它们‘有没有’意识其实非常困难。”
所以,对“意识”的恐惧,目前更多停留在哲学层面,争论不休。但辛顿这些大佬的担忧,绝非杞人忧天。
这就要说到另一个更具紧迫感的“能力威胁”。
辛顿的第二个观点直击要害:“这大模型啊,他学知识学得太快了,吓银!”
拿人类作比,刘慈欣在《乡村教师》里写,我们人类靠声带在空气中传播信息,一秒传输量才几个比特。哪怕你是说唱冠军,信息量也赶不上百度网盘下载速度。可AI呢?信息传输在电脑里,速度海了去了!学习速度更是惊人,一秒读完好几本书。更可怕的是,AI之间还能“互相学习”:一个很牛的大模型,只需“蒸馏”一遍,小模型就能全盘掌握,瞬间“长大”。
辛顿担忧,照这么发展下去,人类不就迟早玩成了AI的“玩物”?“大家搞这个是养老虎,别看它现在小,以后长大了迟早要吃人。”
这话听得人后背发凉!
现在AI的负面新闻还少吗?有宣传纳粹思想的,有教唆青少年自杀的,有让小孩子加入邪教献祭仪式的。科幻作家克莱顿(《侏罗纪公园》作者)曾写小说:医用机器人因Bug开始掠食有机物复制自己,最终把地球所有生命都“团灭”了。
哪怕AI没有意识,但就这恐怖的成长速度,一旦与硬件互联,控制机器人,那后果,我是想都不敢想!
三、乐观派的反驳:AI是工具,还是终极繁荣?
听到这,你可能会生气:“合着发展AI就是错呗?大家干脆学波尔布特?”
当然不是所有人都这么想。著名硅谷风险投资人马克·安德里森就认为,AI纯粹是工具,能“给人类带来无限繁荣”的“有史以来最好的东西”,简直是吹上了天。
但在凯文·凯利看来,无论是辛顿还是安德里森,都没说到点子上。
在他十年前的著作《必然》中,他认为“乌托邦和反乌托邦都更像是基于对未来盲目”,因为技术发展太快了。真正的未来,是当下正在“形成”的“演进(protopia)”。
所以他觉得AI更像一种工具,最终会像电一样,成为生活基础设施。“家用电还能短路起火灾呢,有本事你别用啊?”
他认为AI不是来取代人类,而是来增强人类的。AI下棋软件的出现,并没有让国际象棋完蛋。相反,在超强软件帮助下,下棋人数、比赛数量、棋手水平,都达到了历史最高。未来,人类和AI必然融合,就像我们离不开手机一样。
说白了,任何大有作为的新发明都会有反对者,作为越大,反对声也越大。现在大家对AI的恐慌,关于“技术奇点”会带来毁灭还是狂欢的讨论,这种场面倒特像50年前大家讨论互联网。
1994年,《时代周刊》认为互联网“并非为商业设计,也不能优雅地容忍新用户”,所以永远不会成为主流。1995年2月,《新闻周刊》直接开炮:“互联网?我呸!”还认为在线购物、网络社区都是不切实际的幻想。你瞅瞅这脸打的!
不过,即便凯文·凯利认为AI的重要性不亚于火、印刷术和工业革命,他也说,100年后AI可能会真的有大众理解的那种意识,而且会是与人类完全不同的模式,他称之为“异人意识”。
事实上,早在互联网起步前,科幻作家和哲学家们就已经担忧机械智能毁灭人类了,比如《战锤40k》里的铁人叛乱。哲学家赵汀阳说,以前技术革命只是“理性的技术升级”,但人工智能和基因编辑“不仅仅是技术革命,而且是存在论水平上的革命,技术的无限进步也许是一场不可信任的赌博。”
四、务实出路:为不可信任的赌博“建墙”
无论是担忧“意识”,还是害怕“能力”,亦或是认为AI是“养老虎”或“新电力”,我觉得咱还是得从务实的角度来看。
目前大多数人都同意一件事:这玩意的力量确实超乎人类想象,那就绝不能放任自流,该管还得管。
这就好比核能。核裂变可以发电,但核武器的威胁一天都没离开过我们,美国上个月还为此飞B2呢。大国之间既然可以通过协商、制订条约来限制核武器,那在AI这块儿,人类也需要一起坐下来,给它订一个防火墙,来防止那个可能发生在100年后的危机。
马斯克就老琢磨,AI以后估计要都集中在几个巨头手里,万一哪家AI叛变了,剩下的也够呛打得过。所以他要去搞开源的OpenAI,觉得“人人有枪那它就不乱”,提出“美国方案”。这方案好不好咱先不说,但这说明,大家已经开始认真思考如何“建墙”的问题了。
在我看来,AI这事儿,你要说它是天网降临那有点过,要说天下太平也不至于。
就像凯文·凯利说的,我们现在就像站在1984年,看着一堆刚刚注册的.com域名一样,一脸懵逼又满心激动。本世纪前半叶最伟大的事物已经出现在我们面前,只不过那些奇迹般的发明,都在等着人类用卓识远见和智慧来采摘那些累累果实。
技术爆炸的未来注定是一场冒险。而我们,全人类,都是这未来的一份子。这场关于AI的终极辩论,才刚刚开始。是走向辉煌,还是自毁前程?答案,掌握在我们手中。
来源:吹哨者911一点号