摘要:OpenAI首席执行官山姆·阿尔特曼(Sam Altman)说,他对人工智能的最大期望是:它能够“热爱人类”。他对将这一特质嵌入AI系统充满信心——但并不完全确定。
OpenAI CEO提出了一个独特的想法,建议通过AI聊天机器人与用户进行长时间对话,以确定如何根据人类价值观调整AI以保护人类。
OpenAI首席执行官山姆·阿尔特曼(Sam Altman)说,他对人工智能的最大期望是:它能够“热爱人类”。他对将这一特质嵌入AI系统充满信心——但并不完全确定。
“我认为可以,”阿尔特曼在接受哈佛商学院副院长黛博拉·斯帕(Debora Spar)采访时谈到这一问题时表示。
人工智能崛起引发的担忧,早已不再局限于艾萨克·阿西莫夫(Isaac Asimov)的科幻小说,或詹姆斯·卡梅隆(James Cameron)的动作电影。如今,这不仅成为热门话题,甚至演变为需要认真讨论的监管问题。那些曾被认为是怪人的思考,如今却成为了切实的政策议题。
阿尔特曼提到,OpenAI与政府之间的关系一直“相对建设性”。他补充说,开发人工智能这样一个范围广泛且影响深远的项目,原本应由政府来主导。
“在一个运转良好的社会中,这应该是一个政府主导的项目,”阿尔特曼说,“鉴于这一点并未发生,我认为以(OpenAI)这种方式作为一个美国项目推进,可能是更好的选择。”
AI立法的进展缓慢美国联邦政府在AI安全立法方面尚未取得显著进展。加州曾试图通过一项法律,要求AI开发者对可能导致的灾难性事件负责,例如开发大规模杀伤性武器,或攻击关键基础设施。然而,这一法案虽在立法机关通过,却被加州州长加文·纽瑟姆(Gavin Newsom)否决了。
一些AI领域的顶尖人物警告称,确保AI完全符合人类利益是一个至关重要的问题。被誉为“AI教父”的诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)表示,他“看不到一条能够保证安全的路径”。特斯拉CEO埃隆·马斯克(Elon Musk)则多次警告称,AI可能导致人类灭绝。值得注意的是,马斯克曾在OpenAI创立初期提供了大量资金支持,对此阿尔特曼依然“心怀感激”,尽管目前马斯克正对他提起诉讼。
近年来,许多专注于此类问题的机构涌现,例如非营利组织“对齐研究中心”(Alignment Research Center)和由前OpenAI首席科学官创立的初创公司“安全超级智能”(Safe Superintelligence)。
阿尔特曼对AI“对齐”的信心阿尔特曼认为,目前设计的AI非常适合进行对齐。这里的“对齐”(alignment)通常指的是,人工智能的目标或行为与人类的目标和价值观保持一致。因此,他认为,确保AI不对人类造成伤害比看起来要容易得多。
“目前最令人惊讶的成就是,我们已经能够让AI系统以特定方式行动,”他说。“因此,如果我们能在不同情况下明确这一点,我相信我们能够让系统按照预期行动。”
AI如何帮助定义价值观阿尔特曼提出了一个独特的想法,建议利用AI与公众互动,以明确这些价值观和原则,从而确保AI始终维护人类利益。他建议通过AI聊天机器人与用户进行长时间对话,了解其价值体系,并以此作为调整AI对齐方式的依据。他说,
“我对这样的思维实验很感兴趣:AI与人们聊几个小时,了解每个人的价值体系……然后它会说,‘好吧,我不能一直让每个人都满意。’”
阿尔特曼希望,通过与数十亿人“深入沟通并理解他们”,AI能够更广泛地识别社会面临的挑战。随后,AI可以达成共识,明确如何实现公众的普遍福祉。
AI内部的“超级对齐”团队OpenAI内部曾有一个专门负责“超级对齐”的团队,致力于确保未来的超级智能不会失控或造成巨大伤害。2023年12月,该团队发布了一篇早期研究论文,展示了通过一个大型语言模型监督另一个模型的研究方法。然而,今年春季,该团队的两位领导人——Ilya Sutskever和Jan Leike离开了OpenAI,团队随即解散。
据CNBC当时的报道,Leike离职的原因是与OpenAI领导层在安全承诺上的分歧加剧。他认为,公司在迈向通用人工智能(AGI,即拥有类似人类智慧的AI)的过程中,安全文化和流程已退居次要地位。“构建比人类更聪明的机器本质上是一项危险的工作,”Leike在社交平台X上写道,
“OpenAI正在为全人类承担巨大的责任。但过去几年,安全文化和流程已被那些耀眼的产品所取代。”
阿尔特曼则在Leike离职时表示,“非常感谢他为OpenAI的对齐研究和安全文化所作出的贡献。”
在阿尔特曼看来,AI技术的对齐与安全既是挑战,也是机遇。他相信,通过与人类广泛互动,AI有可能不仅避免伤害,还能成为解决社会难题的重要工具。然而,在迈向通用人工智能的道路上,如何平衡创新与安全,将是OpenAI及整个行业必须直面的核心问题。
来源:金十数据