摘要:一份前所未有的联名信正在引发全球科技界的激烈讨论。数百名来自截然不同政治光谱和专业领域的知名人士,包括苹果联合创始人史蒂夫·沃兹尼亚克、右翼媒体人史蒂夫·班农、图灵奖得主约书亚·本吉奥,以及哈里王子夫妇等,共同签署了一份由未来生命研究所发起的声明,呼吁在科学界
信息来源:https://futurism.com/artificial-intelligence/steve-wozniak-steve-bannon-letter-ai-superintelligence
一份前所未有的联名信正在引发全球科技界的激烈讨论。数百名来自截然不同政治光谱和专业领域的知名人士,包括苹果联合创始人史蒂夫·沃兹尼亚克、右翼媒体人史蒂夫·班农、图灵奖得主约书亚·本吉奥,以及哈里王子夫妇等,共同签署了一份由未来生命研究所发起的声明,呼吁在科学界达成广泛共识和获得公众大力支持之前,全面禁止超级人工智能的开发。这一罕见的跨界联盟反映了对当前AI发展轨迹的深层担忧,也揭示了科技治理中民主参与的紧迫需求。
这份简洁有力的声明直指当前AI发展的核心问题:缺乏公众参与和科学共识的技术竞赛。未来生命研究所最近的民意调查显示,仅有5%的美国民众支持快速且不受监管的先进AI工具开发,而超过73%的受访者支持对人工智能采取强有力的监管措施。更令人关注的是,约64%的民众认为,在超级智能被证明安全可控之前,不应该进行相关开发工作。这些数据揭示了公众意愿与行业实践之间存在巨大鸿沟。
值得注意的是,这份联名信的签署者构成了一个极其多元化的联盟。从苹果联合创始人沃兹尼亚克到维珍创始人理查德·布兰森,从右翼媒体人史蒂夫·班农到左倾艺人约瑟夫·戈登-莱维特,从退役海军上将迈克·马伦到教皇AI顾问保罗·贝南蒂修道士,这种跨越政治、宗教、商业和科技界限的合作在现代科技政策讨论中极为罕见。
科学界的分歧与共识
插图由 Tag Hartman-Simkins / Futurism 绘制。资料来源:Patrick T. Fallon / AFP;迈克尔·圣地亚哥;托马斯·班尼尔/图片联盟来自盖蒂图片社
AI领域的顶尖专家对这一问题的态度呈现出复杂的分化格局。一方面,图灵奖获得者约书亚·本吉奥和诺贝尔奖获得者杰弗里·辛顿这两位被誉为"AI教父"的重要研究人员都在声明上签字,强调了当前AI发展路径的潜在风险。本吉奥在新闻发布会上指出,前沿AI系统可能在短短几年内在大多数认知任务上超越人类,这些进步虽然可能为全球重大挑战提供解决方案,但同时也带来了重大风险。
然而,同样引人注目的是那些选择不签署的知名人士。OpenAI首席执行官萨姆·奥特曼、DeepMind联合创始人穆斯塔法·苏莱曼、Anthropic首席执行官达里奥·阿莫代伊等AI产业的核心人物都没有在声明上签字。特别值得关注的是埃隆·马斯克的缺席,他曾在2023年签署过未来生命研究所的另一份信函,呼吁暂停开发比GPT-4更先进的AI模型。奥特曼此前也曾签署过类似的风险警示信函,这使得他们此次的沉默显得格外引人深思。
这种分歧反映了AI研究和产业界对超级智能发展时间表和风险程度的根本性分歧。一些专家对超级智能是否是可实现的技术目标持怀疑态度,或者认为距离实现还有很长的路要走。而另一些专家则认为,当前的技术发展轨迹可能在相对较短的时间内导致超越人类智能水平的AI系统出现。
值得注意的是,这份声明的一个重要特点是它将超级智能视为一个可以实现的技术目标,这一立场本身就存在争议。许多AI研究人员认为,当前的技术发展路径距离真正的超级智能还有相当距离,更紧迫的问题是如何应对现有AI技术已经带来的挑战和风险。
当前AI技术的现实挑战
虽然这份声明聚焦于未来的超级智能风险,但当前的生成式AI技术已经在现实世界中造成了广泛的负面影响。聊天机器人、图像和视频生成工具等相对原始的AI技术正在颠覆传统教育模式,将互联网转变为一个充斥着错误信息和虚假内容的环境。更严重的是,这些技术正在加速非法色情内容的制作和传播,导致用户出现心理健康危机和现实认知障碍,甚至引发离婚、无家可归、入狱、非自愿治疗、自残和死亡等极端后果。
这种现实与未来风险之间的对比突出了AI治理面临的复杂挑战。一方面,我们需要为可能出现的超级智能风险做好准备;另一方面,当前已经存在的AI技术问题需要立即得到解决。这种双重挑战要求决策者在制定AI政策时必须兼顾短期和长期风险。
未来生命研究所联合创始人安东尼·阿吉雷在声明中强调,许多人希望强大的AI工具能够在科学、医学、生产力等领域带来益处,但AI公司正在走的道路——竞相开发旨在取代人类的超人类智能AI——与公众需求、科学家认为安全的做法以及宗教领袖认为正确的价值观完全不符。
民主参与与技术治理
这份联名信的核心诉求不仅仅是暂停超级智能开发,更重要的是强调公众应该在塑造人类技术未来的决策中拥有发言权。阿吉雷指出,没有人在开发这些AI系统时征求过人类的意见,而民调显示公众认为这种做法是不可接受的。
这一观点触及了现代科技治理的根本问题:技术发展的方向和速度应该由谁来决定?传统上,这些决策主要由科技公司和研究机构在相对封闭的环境中做出,公众参与程度有限。然而,随着AI技术对社会各个层面影响的不断深化,越来越多的声音呼吁建立更加民主和透明的科技治理机制。
这份跨越意识形态分歧的联名信表明,对AI治理民主化的需求已经超越了传统的政治界限。无论是保守派还是自由派,宗教领袖还是科技精英,都开始认识到当前的AI发展模式缺乏足够的公众参与和监管oversight。
从历史角度来看,这并非未来生命研究所第一次组织类似的联名行动。2023年的那份呼吁暂停GPT-4后续开发的信函虽然引起了广泛关注,但在实际效果上相当有限——GPT-4的后续版本仍然如期发布。这raises了一个重要问题:这类公开呼吁是否能够真正影响AI公司的发展策略?
然而,这份最新声明的独特之处在于其签署者的多样性和代表性。这种跨界联盟可能具有更强的政治影响力,特别是在推动监管政策制定方面。当保守派媒体人和自由派艺人、科技企业家和宗教领袖能够就AI治理问题达成共识时,这向政策制定者发出了一个强有力的信号:AI监管已经超越了党派政治,成为一个需要紧急关注的社会共同议题。
来源:人工智能学家