深度|Sam Altman:知识储备的价值正在让位于模式识别与综合能力,当下人类的价值是“为他人创造价值”

B站影视 欧美电影 2025-04-12 12:42 1

摘要:AI的广泛应用使得提出正确问题的能力变得更加重要,而人类的灵活性和适应性则将成为核心竞争力。尽管AI可以模拟情感,但人类对真实社交连接的需求依然强烈,未来这种需求可能会进一步增加。AI并非直接替代人类工作,而是推动工作内容和形式的深刻变化,将带来新的职业机会和

图片来源:Re:Thinking with Adam Grant

AI的广泛应用使得提出正确问题的能力变得更加重要,而人类的灵活性和适应性则将成为核心竞争力。

尽管AI可以模拟情感,但人类对真实社交连接的需求依然强烈,未来这种需求可能会进一步增加。

AI并非直接替代人类工作,而是推动工作内容和形式的深刻变化,将带来新的职业机会和挑战。

在未来,人类将成为决策者和创造性思维者,AI则作为工具强化人类的能力,协同推动工作进展。

Sam Altman是 OpenAI的联合创始人兼CEO,OpenAI是ChatGPT背后的公司。本文为Sam Altman与美国著名的组织心理学家、作家和演讲者Adam Grant在Re:Thinking with Adam Grant播客栏目中的访谈实录。

Adam:我想从过去一年大多数人都会问的问题开始:被自己创立的公司解雇是什么感受?

Sam:就像一场超现实的迷雾。困惑是最初的主要情绪,之后经历了各种情绪——沮丧、愤怒、悲伤、感激,可以说是人类情感的完整光谱,那种情绪的广度令人印象深刻。

Adam:在那48小时里,你是怎么处理这些情绪的?

Sam:实际上当时有太多事情要处理,根本没时间处理情绪。尘埃落定后反而更难面对,那时才真正开始消化情绪。

Adam:我记得Steve Jobs被迫离开苹果后,曾说过那像一剂难以下咽的苦药,但病人需要它。这种感受有相似之处吗?

Sam:可能时间还不够长,我最近没怎么思考过这个问题。这与Steve Jobs的情况完全不同,而且整个过程只有短短五天,就像一场奇怪的发烧梦,然后就回到工作岗位收拾残局。

Adam:五天和十年的学习曲线差别还真不小,你从中学到了什么?

Sam:实际上可能只有四天。我学到最重要的是沟通方式——需要更直接明确地说明情况。最让我自豪的是看到团队在危机中的表现,任何一位高管都能胜任公司运营,这证明公司基础非常稳固。

Adam:听你这么说,我有些惊讶。我原本以为你最骄傲的时刻应该是看到那么多员工站在你身后。作为组织心理学家,那种忠诚度的展现令人震撼。

Sam:这确实感觉很好,但真正铭记的是团队的运作能力。

Adam:这很像Jobs。当他被问及自己最骄傲的成就时,他说不是 Mac、iPod、iPad,而是打造这些产品的团队。

Sam:我不做研究,也不打造产品。我做部分决策,我打造的是公司,所以团队的运作能力肯定是我为之感到骄傲的事。

Adam:那你到底做什么?你怎么度过你的一天?

Sam:这是个很好的问题。不知为何,清晨时分总是井然有序,但一到下午往往就会完全失控——各种突发状况接踵而至,让人不得不进入被动应对和紧急救火的状态。因此我学会了在一天之初就完成最关键的任务,我把大部分时间都用于思考研究以及打造我们的产品,其他事务则尽量少花精力。不过具体如何分配,随时都可能发生变化。

Adam:我非常好奇的是:人类未来会怎样?研究显示我们在创造力、同理心等领域的优势正在快速丧失。你对AI超越人类能力的速度感到惊讶吗?

Sam:我们最新模型几乎在所有方面都比我聪明,但这并未真正改变我的生活本质。社会消化这项技术需要时间,但最终会加速发展。

Adam:不过当下日常生活与几年前差异并不大——这与短期高估变革、长期低估变革的规律一致。

Sam:最终,我认为整个经济会转型。我们会找到新的工作,我对此没有担忧。每当我们迎接新技术时,都会假设所有的工作都会消失。确实一些工作会消失,但我们总能找到更多新的、更好的事情做。所以,我认为这只是技术进步长曲线中的下一个阶段。

Adam:我觉得在某种程度上,AI革命看起来和互联网是完全相反的。因为当时,人们经营公司,但他们并不相信互联网会改变世界。最终他们的公司倒闭了,因为他们没有做出需要做的改变。但那些相信互联网的人,他们很清楚行动的意义。我需要有一个正常运作的网站,我需要知道如何通过网站销售我的产品,适应数字革命并不需要高级科学。而我现在从许多创始人和CEO那里听到的是相反的情况,每个人都相信AI会改变游戏规则,但没有人知道这对领导力、工作、组织、产品和服务意味着什么,就好像他们都处于黑暗中。

Sam:从这个角度来看,它更像是工业革命,而不是计算机革命或互联网革命。对于这将如何推进,存在许多未知。

Adam:我有几个假设。首先是,我们将不再重视能力,而是开始重视人类的灵活性。

Sam:我们仍然会重视某种能力,但它不会再是原始的智力水平,至少没有以前那么重要。

Adam:你认为现在重要的新能力是什么?

Sam:未来重要的能力可能是"提出正确问题"而非"解答问题"。

Adam:这和我最近几年看到的趋势一致。以前我们重视你积累了多少知识,如果你是一个知识收集者,那就意味着你很聪明,值得尊敬。现在我认为,成为一个“点的连接者”比成为一个“事实收集者”更有价值,知识储备的价值正在让位于模式识别与综合能力。

Sam:你有没有看过《太空堡垒卡拉狄加》这部电视剧?剧中有一句话反复出现:“这一切曾经发生过,这一切还会再发生。”当人们谈论AI革命时,它在一些非常重要的方面让我感到不同,但也让我想起以前的技术恐慌。当我还是个孩子时,出了个新东西,我看到了互联网,觉得它很酷,其他人也觉得它很酷,显然比以前的东西好得多。当时我还不够大,不能直接体验到这件事,但大的孩子们告诉我,老师们开始禁止使用Google,如果所有事实都能随手查到,那我们何必去上历史课、背诵史实呢?这感觉就像我们会丧失某些至关重要的东西——那些关于如何教育孩子、如何成为负责任社会成员的核心价值。要知道,现在你甚至不用启动汽车引擎、开车去图书馆、翻找目录卡片、查阅书籍——答案就在指尖。这感觉不公平,感觉不对劲,感觉我们正在失去什么。

但历史告诉我们:每当获得更好的工具,社会期望就会提升,人类能力也随之增长。我们总能学会处理更复杂、更有影响力、更有趣的新事物。AI的发展也会遵循这个规律。试想几年前问人们两个问题:一、2024年会出现像o1这样强大的系统吗?二、如果有神谕说这将成为现实,世界会如何改变?日常生活会怎样不同?我们将如何应对生存危机?绝大多数人对第一个问题会断然否定,但对第二个问题的想象却严重不足。然而当这个奇迹真的降临,我们发现——人类依然在这里,适应着,前进着。

Adam:在科技创新领域,Aiden Toner Rogers的最新研究带来了令人振奋的发现:当研发科学家获得AI辅助时,其专利申请量增加了39%,并由此催生了17%的产品创新增长。尤为值得注意的是,这些突破很多属于根本性创新——比如新型化学结构的发现。但收益主要集中于顶尖科学家群体,排名后三分之一的科研人员获益甚微。顶尖科学家的生产力几乎翻倍,而这主要归功于AI接管了大量创意生成工作,使得科学家能够将精力集中在创意评估上——优秀科学家最擅长的正是识别有潜力的创意,而普通研究者则容易陷入"假阳性"误判。

这难道不是个好消息吗?科学创造力得到了前所未有的释放。但研究也揭示了代价:82%的科学家对工作的满意度下降,他们认为自己从事的创造性工作变少了,技能未能充分施展。这似乎将人类降格为了"评审者",而非"创造者"或"发明家"。我很想听听你对这些证据的看法,以及我们该如何应对这一状况。

Sam:对此我有两种矛盾的想法。就我个人而言,在OpenAI最令人欣慰的时刻之一,就是当我们向那些传奇科学家、数学家和程序员们展示新型推理模型时,听他们讲述这些工具如何彻底改变了工作方式——他们得以用前所未有的新方法开展研究。

我必须承认,职业生涯中最大的快乐,正来自于创造性思考难题、找出无人知晓的答案这个过程。想到AI可能接管这部分工作,确实会感到一丝怅然。但我认为现实更可能是:我们将以全新方式应对复杂问题。真正的快乐源泉在于——我们始终是攻克最难课题的主动参与者。如果新型工具能以不同方式增强我们的能力,我想人类终将适应,尽管此刻我仍心存犹疑。

Adam:那在你现在的工作中,是什么样的情况呢?比如你如何在工作中使用ChatGPT来解决问题?

Sam:老实说,我用它的方式都挺无聊的。我不是那种用它来帮我想出新科学创意的人。我更多是用它来帮我处理电子邮件,或者帮我总结文件,都是那些非常无聊的事情。

Adam:听起来,你依然对人类能够适应并持续参与创造性过程持乐观态度?

Sam:是的,我确实充满希望。我认为人类的创造精神是与生俱来的,无论如何这种特质都会延续下去。当然,协作方式必须与时俱进,虽然具体形态可能不同。

Adam:另一个领域。我原本预期人类在同理心方面能保持更久的优势,但现实却出乎意料。我最欣赏的一项实验表明:当人们进行匿名文字交流时,如果不知道对方是人类还是ChatGPT,事后评估获得的共情与支持时,参与者普遍认为从AI那里获得了更多理解与支持——除非事先告知对方是AI,这种好感就会消失。作为心理学家,我对此有两个解读:首先,这并非说明AI的共情能力有多强,而是反映出人类同理心的基准水平实在堪忧。我们太容易陷入"对话自恋"——当别人倾诉烦恼时,我们总是急于关联自身经历,而非真正倾听对方。但我也在思考:随着AI拟人化程度越来越高,这种"知道是AI就不想要"的心理能持续多久呢?

Sam:这种"不知情时偏爱AI输出,知情后态度逆转"的现象非常普遍。最近有项研究发现,即便是那些声称最厌恶AI艺术的人,在盲测时仍更青睐AI生成的作品——直到被告知作者身份才改变选择。类似的例子不胜枚举。这揭示了一个深刻矛盾:AI已在多方面比肩人类,但我们进化形成的本能依然让我们更重视真人互动。我认为这是个好现象。虽然未来与AI的对话频率必然增加,但那种根植于生物本能、演化历史和社会功能的人类联结需求——无论你怎么定义它——终将让我们珍视真人交流。

Adam:你为什么认为我们仍然会渴望人类的连接?听起来这像是Robert Nozik的论点,他提出人们更倾向于真实的体验,而不是模拟的快乐,这也是《黑客帝国》中的主题。你认为我们渴望的就是这种真实的、人类之间的连接,即使它是有缺陷和混乱的,当然,AI也会学会模拟这种连接。

Sam:你很快就会发现,与一个永远完美共情的存在对话,反而会让人怀念那些人际摩擦中的戏剧张力。人类天生在意他人的看法,渴望被看见、被评价——这种心理机制很难移植到AI身上。与AI对话或许能获得实用帮助和心理慰藉,就像玩电子游戏也是种娱乐。但游戏满足不了我们对社会归属的根本需求。当然,我可能判断错误,也许AI终将破解我们的心理密码,若真如此,我会深感悲哀。

Adam:是啊,我也如此认为。AI难以替代归属感,也无法赋予我们社会地位——那种需要他人目光见证的"被尊重感"。

Sam:这正是我想表达的。即便未来AI能力远超人类,我想象那个世界里的人们依然会在意彼此,依然会玩那些关于相对地位的"幼稚游戏"。但关键在于:有多少人会真正以AI为参照系来定义自我价值?

Adam:我特别好奇的是:在这个信息日益对立、事实愈发难以取信于人的时代——比如阴谋论信仰的数据就显示,人们之所以相信阴谋论,部分原因是这让他们感觉自己特殊、重要,掌握了他人不知道的"秘密"。当然这不是唯一原因,但确实是主要驱动力之一。这也意味着,普通人很难说服他们放弃这些信念,因为那相当于要他们承认自己错了。

Adam:Costello、Penny Cook和Rand的最新研究令人着迷:仅需与AI聊天机器人进行一次对话,就能让人在数月后放弃大量阴谋论观点。方法很简单——针对某个错误认知进行精准反驳。我认为这奏效的原因有二:一是AI能针对每个人特定的信念成因作出回应;二是在机器面前,人们不像在真人面前那样害怕"丢面子"。数据显示,约20%的人在单次交流后,不仅放弃了目标谬论,连AI未直接反驳的其他错误信念也有所松动。

Adam:这扇新开启的大门令人振奋!当然,这种能力既能行善也可作恶。我很想听听你如何看待这个纠正认知误区的新机遇?

Sam:世界上确实存在能拓展我们思维的人,与他们对话是种难得的特权,只是这类人实在太少了。如果我们能打造出AI界的"最佳晚宴嘉宾"——博古通今、充满好奇心、愿意花时间引导你的思维走向新维度,我认为这会是件美好的事。

Sam:我自己也有过这样的体验——通过与AI的对话,某些领域的真知灼见彻底改变了我的世界观。当然世上肯定存在能带来同样启发的人类专家,只是我未必恰巧能遇见他们。

Adam:这自然引出了关于"幻觉问题"和准确性的担忧。作为外行,我实在难以理解为何这个问题如此棘手。能否用非技术语言解释一下?

Sam:很多人还停留在2021年GPT-3的认知里——那时系统确实漏洞百出。即便现在的ChatGPT偶尔也会产生幻觉,但整体可靠性已远超预期。这些模型本质上是通过海量文本训练出的预测引擎,而训练数据本身包含错误信息。有时模型该举一反三时却失灵了。最关键的是教会AI区分"确定不知道"和"可以合理推测"的边界——这仍是重点研究方向,不过我们的新推理模型已取得重大突破。

Adam:我经常在提问时加上"请核实准确性"这样的指令。这是否意味着未来系统会自动内置这种验证机制?

Sam:验证机制必将成为标准流程的一部分,当然还会有其他优化措施共同提升准确性。

Adam:说到验证,最新研究让我震惊:在医疗诊断测试中,不仅纯AI胜过纯医生,AI甚至超越了"医生+AI"组合团队。在我看来,这是因为医生一旦与AI意见相左就会过度干预,反而削弱了AI优势。

Sam:这就像国际象棋发展史:最初人类占优,后来AI反超,之后出现短暂的人机协作黄金期——双方优势互补。直到某天,纯AI再度碾压人机组合,因为人类棋手开始错误干预AI决策。关键不在于事事否定AI。我们尚处人机协作的探索初期:AI诊断更精准这事实该接受,但问诊过程中患者更需要医生的温度。说到这个我即将迎来新生儿,这孩子将成长在AI永远比人类聪明的世界里。对他们而言,AI就像空气般自然存在。"比AI笨"根本不成问题——觉得别扭的只有我们这些过渡世代。

Adam:这种认知倒能培养谦卑品格。不过眼下我们还没学会与AI共处,有些人是不是过早产生依赖了?

Sam:我现在连复杂单词都懒得记拼写了,反正有自动纠正兜底。这种依赖没什么不好。人们总容易对技术依赖产生道德恐慌,但或许AI辅助表达本就是未来常态。

Adam:我见过不少学生,面对空白文档时没有ChatGPT就无从下笔。这种依赖性确实在滋长。你认为该如何防范?还是说我们该学着适应?

Sam:我不确定是否需要"防范"。写作本就是思维的外化工具,只要人们找到更好的思考方式,新的写作形态自然水到渠成。倒是现在有个滑稽现象:A先列要点让AI写成邮件,B收到后反让AI提取要点——这种循环往复的"伪正式沟通"早该淘汰。我巴不得快点进入人人都直接互发要点的时代。

Adam:真该给AI加个水印功能:"此内容由AI生成,原主人其实只想发三个要点"——这样沟通效率能提升不少。

Sam:成名后的悲哀就在于,即便再谨慎措辞,只要稍有差池就会招致无数攻击——这对OpenAI和我本人都没什么好处,但这就是现实。

Adam:这何尝不是种特权丧失呢?你再难像从前那样随心所欲地公开探讨想法,哪怕其中夹杂着错误或未尽完善的洞见。

Sam:主要是错误很多,偶尔有一些亮点,但那就是我追求的了。

Adam:话虽如此,像你这样反思更多的人,确实比一些同龄人没有任何自我反省或自控能力的人要值得尊敬。

Sam:这是两回事。做个深思熟虑的人本就是基本修养——确实该有更多人明白这点。

Adam:我认为部分原因在于人们适应工具的速度太慢。Sharon Parker团队在机器人技术领域的研究很有意思:当制造企业开始用机器人替代工人时,许多员工没有恐慌,反而主动研究机器人的缺陷,将其转化为自己的核心竞争力——这正是人类智慧的闪光点。现在最令人不安的是,随着o1和推理能力的进步,去年我们还引以为傲的技能今年就已过时——比如2023年那些精心设计的提示词技巧,有些将永远失去价值。那么50年、100年甚至1000年后,人类的价值究竟何在?

Sam:无人知晓。但更有趣的问题是:当下人类的价值是什么?我认为是"为他人创造价值"。这让我想起Paul Boo多年前的洞见:他预言未来会出现"人类货币"与"机器货币"完全分离的体系。虽然不会字面实现,但这个思想实验极具深意。

Adam:真有意思,我从未想过机器会有自己的货币。

Sam:当AI包揽科学突破、治愈疾病、实现核聚变时,你会在意哪项成就来自AI,哪项来自人类公司吗?恐怕不会。当然可能涌现某些AI崇拜团体,但我打赌人类社会的焦点仍会惊人地集中在"人"本身。

Adam:好的,我觉得现在可以进行快速问答环节了。

Sam:这就切换到GPT-4模式——快速响应,单轮输出。

Adam:第一个问题:近期你对AI有哪些观念转变?

Sam:我现在认为技术爆发可能比几年前预想的更快。具体时间难以预测,但很可能在数年而非十年内发生。

Adam:你认为人们在适应AI时,最糟糕的建议是什么?

Sam:"立法禁止"。这根本是逃避思考的懒惰做法——眼不见为净。

Adam:那最佳建议呢?在AI时代生存发展的要诀是?

Sam:答案蠢得可笑——直接用就对了。OpenAI最酷的一点就是,我们把当今最强大的o1模型开放给所有人,月付20美元就能用前沿科技。不想付费也有优质替代品。关键在于:你现在就能接触到世界顶级的智能工具,亲自探索它的可能性——喜欢什么,担忧什么,未来会怎样,动手试试才知道。

Adam:关于AI,你最有争议的观点是?

Sam:短期内AI的影响会被高估。长期来看一切巨变,但我真心认为,即使首个AGI诞生,大众反应也会很平淡。

Adam:只有科技圈和哲学家会持续关注——我观察到的确如此。

Sam:就连他们,20分钟后也会开始琢磨晚饭吃什么。

Adam:作为组织心理学家,你想问我什么?

Sam:OpenAI该如何管理团队心理,应对超级智能爆发期的极端压力?虽然我们还未真正进入那个阶段,但即便现在AGI的研发爬坡期,已让人感到高压紧绷。我们需要更强的组织韧性。

Adam:你所说的组织韧性具体指什么?是让成员抗压能力更强,还是提升应变速度?

Sam:组织韧性意味着:在超高风险的未知中做出明智决策,同时保持敏捷——因为事实基础和所需行动可能瞬息万变。

Adam:我的建议是从2×2矩阵开始:让OpenAI全员评估每个选择的影响程度和可逆性,对那些高影响且不可逆的决策,必须反复推敲,其余三个象限尽可快速试错。最关键的是——把最优质的思考力留给右上角那个生死攸关的象限。接下来我想问你一些你写的东西,你曾写过一篇关于如何成功的博客。

Sam:那已经是很久以前的事了。

Adam:确实很久了。

Sam:时间过得真快,我现在已经不记得了。

Adam:没关系,我这里有。里面有一段我觉得特别有意思,关于自信的部分,我这里引用一下你写的内容。你写道:“自信是极其强大的。我认识的最成功的人几乎到达了自信的极限,几乎接近于妄想。早早培养这种自信,当你越来越多地得到你判断正确的证据,并且能够持续交付结果时,更多地相信自己。”你现在还同意这个观点吗?

Sam:同意,当我们开始创立OpenAI时,我们相信这个理念——那时OpenAI正处于外界最大怀疑的阶段,而我们自己却充满信心。我认为在那个阶段,我对公司最重要的贡献就是一直提醒大家:“看,外界对于任何新事物都充满敌意,任何可能朝不同方向发展的东西都让人感到不安,但是我们取得了巨大的进展。我知道现在还很早,我知道我们必须保持怀疑精神,但我们确实在扩展。所以我们要毫不犹豫地走得更远。”现在看起来这一切都那么显然,但当时我真的相信,如果我们没有这么做,可能会很长时间才会发生。因为我们是唯一一个有足够自信去做看似荒谬的事情的人——比如花10亿美元来扩展GPT模型。所以我认为那是非常重要的。

Adam:确实,但我也觉得有点可怕,因为那些人自信到接近妄想的人,常常会在自己专业领域之外做出糟糕的决策。我觉得如果我要修改你写的东西,我会说,当你在某个领域收集到越来越多判断自己正确的信息时,那么在这个领域你应该更多地相信自己,而不是在任何领域都盲目自信。

Sam:那样的说法会更好一些。我不认为经验和能力完全不能迁移,但很多人试图过度泛化。我应该在文章中提到,“在你的专业领域”,不过也有一些细微的差别,因为我也认为你应该愿意去做一些新事物。你知道,我六七年前还是一个投资者,而不是AI实验室的高管。

Adam:环境稳定性也很关键:在稳态环境中,你的直觉基于长期验证的经验模式;但在剧变环境下,直觉可能建立在过时的数据基础上。

Sam:是的,我认为在那种环境下,你需要更加依赖那些核心的、你认为有效的基本原则。这些原则对你来说会变得更加有价值。

Adam:我想我们最后要谈的主题是伦理。我知道你最近一直在思考和讨论这个话题。AI在伦理方面的判断是大多数人最不愿意外包的部分,我认为我们最终还是需要依赖人类来做出这些判断。

Adam:现在流行用"核威慑"比喻AI安全——要跑赢恶意行为者,形成相互保证毁灭。但这类比漏洞百出:首先多数恶意者非国家行为体,其次让私营企业而非民选政府掌握这种权力也太复杂了。

Sam:首先,我认为规则必须由人类制定,AI只负责执行。其次,历史类比很危险——核威慑诞生于两极世界,而AI风险是分布式、多维度的全新挑战。

我会鼓励人们尽可能从现在已知的AI与以前的一切有何不同来展开讨论,而不是进行荒谬的猜测然后试图设计一个适应未来的系统。我真正相信的一件事是,将AI作为一种工具来显著增强个人能力,无论你怎么称呼它,都是我们当前形势下一个非常好的策略,比一个公司或对手或任何人使用全球所有AI能力要好得多。但我也承认,我不知道当AI变得更具自主性时会发生什么。不是那种我们给它一个任务让它编程三小时,而是我们让它去做一些非常复杂的事情,这通常需要一个组织多年时间才能完成。我怀疑我们可能需要开发新的模式。我再次强调,我认为历史在这一问题上可能并不会给我们提供太多帮助。

Adam:而且说实话,在软件领域,历史确实没能给我们带来太多帮助。我认为任何其他强大技术的使用在美国都会受到监管,而在这方面,欧盟似乎可能比美国的国会更有能力。

Sam:我认为欧盟在AI监管方面的做法不会有太多帮助,举个例子,当我们完成一个新的模型时,我们可以在美国先推出它,而在欧盟推出却需要经过一系列的监管过程。如果这意味着欧盟总是落后于前沿几个月,那他们可能就会逐渐丧失技术话语权和经济动能。所以,找到合适的监管平衡真的很棘手。而且,显然,我认为我们肯定需要一些。

Adam:如果要划定负责任监管的起点,你会如何布局?

Sam:测试与理解——这是最理想的切入点。

Adam:但像生物武器制造这种可能被低成本实现的威胁,该制定怎样的监管?

Sam:其实用Google现在就能查到不少危险信息。虽然AI会降低操作门槛,但现有监管体系已有基础框架——当然需要进一步加强

Adam:你最担心的是什么,展望未来十年?

Sam:变革的速度。我深信人类解决问题的能力,但这次我们要与时间赛跑。

Adam:说到伦理影响,数字技术本应缩小不平等,结果往往加剧马太效应——富人因工具优势更富。虽然o1定价亲民,但获取差距依然存在。如何让AI真正惠及发展中国家?

Sam:我们已将智能的单位成本每年降低约十倍——虽无法持续太久,但已让智能变得前所未有的廉价。

Adam:不过,在某些方面,这又和当前的问题相矛盾,因为现在能负担得起做出非常强大模型的玩家,基本上只有政府和大型公司。

Sam:是的,现在是训练它,没错。但使用它是完全不同的事。

Adam:回顾这三年,你几乎经历了别人半辈子的变革。究竟是什么支撑你坚持?

Sam:我是一个技术乐观主义者,热爱科学,我认为这是我能想象的最酷的事情,也是我能想象的花费工作时间的最佳方式,能够成为我认为是我们这一代人最有趣、最酷、最重要的科学革命的一部分。若要说非私心的理由,我认为科学进步是社会发展的引擎。在所有我能贡献力量的领域中,AI是最能推动科学进步、提升生活质量的——这种使命感让我心怀感恩。

Adam:听起来像是责任感。当然。作为即将成为父亲的人,面对即将到来的孩子,你希望为下一代创造什么样的世界?

Sam:丰盈是我首先想到的词,繁荣是第二个词。但总的来说,就是一个人们能做得更多、实现更多、更充实、过上更好生活的世界,不论我们每个人如何定义这些。大概是所有其他即将做父亲的人都希望给自己孩子创造的世界。

Adam:关于“设计婴儿”,已经讨论了很长时间了,但看起来你做的某些工作,可能会使这一切变得比我预想的更快实现。

Sam:现在似乎已经不远了,一对夫妇可以制作一百万个胚胎,完全基因测序每一个胚胎,然后挑选出他们想要的最佳基因。

Adam:这让你担心吗,担心我们会破坏生物多样性这个生物学上的必要性?

Sam:这种感觉让人非常不安。

Adam:我的意思是,你可以希望,人类有足够多不同的偏好,仍然会有很多多样性。但你也可以想象,人们开始筛选他们不想要的东西。我可以理解,这样可能带来意想不到的好处。

Sam:我更能看到的是模式崩塌,而不是多样性。

Adam:那你会帮我们解决这个问题吗?

Sam:我还没想过这个问题。为什么不由你来解决呢?我继续做我的工作。

Adam:我不合适,我们得找个人来思考这个问题。我觉得今天你表达了比以往任何时候更强烈的对人类的信念,不仅仅是对技术。我认为在某些方面,这是一个冒险的地方,像我们在社交媒体上看到的那样。但我也认为,这其实是建造技术时的基本条件——你必须关心并相信人类。

Sam:尽管我尽量保持客观,我还是倾向于乐观。不过,如果对技术过于乐观,没关系;但如果对人类过于乐观,那可能对我们来说是危险的。你知道的,我们推出这些工具时,可能会想:“人们会用它们做更多的好事,而不是坏事。”但如果我们对人性的理解是错误的,那将是我们战略中的一个缺陷,但我不相信会那样。

Adam:希望是如此,Sam。感谢你抽出时间进行这次对话。我学到了很多,也非常享受这次交流。谢谢。

Sam:感谢邀请我,这真的很有趣。

原文:Sam Altman on the future of AI | ReThinking with Adam Grant

https://www.youtube.com/watch?v=c0NqpG--Pzw&t=9s

编译:Cindy Miao

请注意,本文编译自文末载明的原始链接,不代表Z Potentials立场。如果您对本文有任何想法或见解,欢迎在评论区留言互动探讨。

Z Potentials将继续提供更多关于人工智能、机器人、全球化等领域的优质内容。我们诚邀对未来充满憧憬的您加入我们的社群,与我们共同分享、学习、成长。

🚀 我们正在招募新一期的实习生

🚀 我们正在寻找有创造力的00后创业

关于Z Potentials

来源:今日东乡

相关推荐