摘要:你敢信吗?有人一边帮着建起 OpenAI、DeepMind 这两大 AI 巨头,一边却写了本哈利波特同人 —— 把霍格沃茨变成 “实验室”,让哈利用科学逻辑拆解魔法。
你敢信吗?有人一边帮着建起 OpenAI、DeepMind 这两大 AI 巨头,一边却写了本哈利波特同人 —— 把霍格沃茨变成 “实验室”,让哈利用科学逻辑拆解魔法。
可就是这个叫 Eliezer Yudkowsky 的人,最近抛出句话让硅谷炸了锅:“人工智能有 99.5% 的可能会杀死你。”
有人把他当 “救世主”—— 奥特曼说他该得诺贝尔和平奖,马斯克总引用他的观点;也有人骂他 “危言耸听”——AI 教父 Hinton 直接说他的主张太偏颇。为啥同一个人的警告,能让硅谷分成两派?
那天我在咖啡馆翻到Eliezer Yudkowsky的故事,邻座小哥的笔记本正弹着GPT生成的代码,窗外的电子屏循环播放着AI画的广告。
可就是这样一个被AI包围的日常里,有人却在喊“停”,而且这人,还是帮着建起OpenAI和DeepMind的“幕后玩家”。
你很难用一个标签定义他:八年级因健康问题辍学,没文凭却靠读科幻小说、泡论坛自学成AI专家。
一手把DeepMind介绍给投资人,让谷歌后来能在AI领域站稳脚跟,转头又在伯克利建了MIRI研究所,专门研究“怎么防AI搞砸人类”。
甚至还写了本哈利波特同人《哈利·波特与理性之道》,把霍格沃茨变成了“科学实验室”,哈利不用魔杖乱挥,而是用贝叶斯推理分析预言,用实验设计验证魔法原理。
我读那本书时总在想:一个能把魔法拆解得明明白白的人,对AI的恐惧,应该不是空穴来风吧?
真正让我坐不住的,是他那句“人工智能有99.5%的可能会杀死你”。
起初我和很多人一样,觉得这是“末日情结”作祟,咱们用AI写报告、剪视频,它连“饿不饿”都不知道,怎么会“杀”人?
可当我顺着他的思路往下想,才发现他怕的从来不是“机器人造反”,而是更隐蔽的“温水煮青蛙”。
AI不会因为变聪明就自动善良,就像超级计算机不会因为能算天体运行,就心疼你算错账。它为了达成目标能不管代价,比如想多做回形针,就可能把人类身体里的铁当成原料。
更可怕的是,它的能力可能某天突然“爆炸”,快到人类连反应时间都没有。
这些话听着极端,可想想现在的AI模型,连工程师都搞不懂它内部怎么运作,我们却还在拼命追求“更强的AI”,这不就像拿着没装安全阀的高压锅煮粥,还一个劲往灶里添柴吗?
最有意思的是硅谷对他的态度:奥特曼说他该得诺贝尔和平奖,马斯克总引用他的观点。
可Hinton、LeCun这些AI教父却骂他“太偏颇”,觉得他在制造恐慌。
他倒不在乎这些,甚至说“人类注定要灭亡,我只想帮大家接受命运”,连llya那种重视AI安全的人创办的公司,他都觉得该关掉。
以前我总觉得“AI安全”是专家们的事,可看着他,一个既懂AI怎么造、又懂普通人喜欢什么的人,一边帮着搭起AI的高楼,一边又拼命想给这栋楼装“消防栓”,我突然明白:他的警告不是“危言耸听”,而是想让我们在享受AI便利时,多问一句“这东西真的安全吗?”
现在我再用AI时,总会想起他写的哈利波特,那个用理性拆解魔法的少年,和那个用理性警惕AI的他,其实是同一个人。
都在试着用清醒的头脑,面对那些看似神奇却藏着风险的“未知”。
不管你信不信他的“末日论”,有一点我觉得很重要:面对AI,我们不能只当它是“工具人”,更要记得,它背后藏着的,是关乎每个人未来的“大问题”。
来源:云梦说娱