伦敦 SXSW|DeepMind CEO 哈萨比斯:AI 会取代旧岗位

B站影视 日本电影 2025-06-05 21:38 2

摘要:2025 年 6 月 4 日,伦敦 SXSW 大会主舞台灯光刚亮,Google DeepMind 首席执行官、诺贝尔奖得主德米斯·哈萨比斯(Demis Hassabis) 走上台。没有 PPT,没有宏大的宣言,他只说了一句让全场安静下来的话:

2025 年 6 月 4 日,伦敦 SXSW 大会主舞台灯光刚亮,Google DeepMind 首席执行官、诺贝尔奖得主德米斯·哈萨比斯(Demis Hassabis) 走上台。没有 PPT,没有宏大的宣言,他只说了一句让全场安静下来的话:

“AI 正在替代一批岗位,但它同样会创造出全新的、非常有价值的工作。(I think new jobs will appear — new very valuable jobs)”

这不是一句安慰,而是一张时间表。

哈萨比斯预测:未来 5–10 年,真正懂得如何与 AI 协作的人,将进入下一代工作红利的第一梯队。他直言,未来最吃香的人才,不是 MBA,而属于那些掌握数学、物理、计算机等能力的人。

这一预测并非空穴来风,当下的就业市场已经给出了答案。

LinkedIn & Microsoft 发布的《Work Trend Index 2025》显示,全球 75% 的知识型岗位已融入生成式 AI,“AI 工程师”是全球增长最快的新岗位之一;

在中国,艾媒咨询 2024 年 Q4 调研显示:AI 数据工程师、AI 机器人工程师、AI 算法工程师位居招聘缺口前三,占比分别为 29.6%、27.4%、27.1%。(截至目前,该数据仍是公开渠道中最新的一份系统调研)

1、复原哈萨比斯在伦敦 SXSW 对话中的原始观点,拆解他对“AI 替代与创造”双螺旋路径的判断;

2、结合全球与国内招聘趋势,归纳出“3 类高价值新工种”的雏形:

AI 协作师:不是写代码,而是调度模型、提问、验收结果;科学合作者:从 AlphaFold 到聚变研究,AI 成为科研搭档;AI 伦理专员:提前测试模型、划出边界、为关键场景设计防护措施;

3、梳理出一条“学好基础 → 掌握工具 → 解决实际问题”的发展路线,帮你看看:自己在这场职场变革中处于什么位置。

如果说,AlphaFold 帮助哈萨比斯拿下诺贝尔奖,那么这场 SXSW 对话,则更像他在 2025 年送给所有“尚未做决定”的职场人的一次提醒。

在伦敦 SXSW 的现场,德米斯·哈萨比斯没有用任何技术术语,他只是讲了一个已经发生的现实:

AI 正在接手一批工作任务。

他没说“可能会”,而是正在。

什么叫“接手”?哈萨比斯给出的例子很具体——在 DeepMind 内部,AI 已经能完成视频生成、代码编写等复杂任务,有的甚至比新手程序员还快。这些事,过去要好几个人做,现在一个 AI 模型几分钟就能搞定。

而最先受到影响的,是那些流程重复、操作明确、评价标准固定的岗位。你可以理解为——

招聘岗位:筛选简历、安排面试,AI 正在顶上;基础编程:写模板代码、查接口文档,AI 写得比新手快;文案编辑:初稿生成、结构润色,AI 能一天出几十份。

这些变化,并不是哈萨比斯的假设,而是他作为 CEO,在 DeepMind 和 Google 内部真实看到的趋势。

而且他不是一个人在说。

微软、Meta、亚马逊,都已经在大量岗位中引入 AI 协作,很多入门级职能正被重塑。

在演讲结束后,哈萨比斯在接受CNN采访时进一步指出 :“AI会带来比工业革命更大的变革(AI to be a bigger transformation than the Industrial Revolution)。”

稍早前,Anthropic CEO Dario Amodei 也同样认为:AI开始在几乎所有脑力工作上超越人类(AI is starting to get better than humans at almost all intellectual tasks)。这不是预判,而是已经发生的事实。

哈萨比斯对此的看法很明确:

这不是什么灾难,只是提醒我们——要学会和它一起工作。

也就是说,那些仍然把 AI 当作“别人家技术”的人,很快就会发现:它不是远方威胁,而是你办公桌对面坐的新同事。

哈萨比斯在现场直接说:我最想要的 AI 产品,是一个能自动帮我处理电子邮件的工具。

这话听上去像个玩笑,但他说得很认真:

我愿意每月花几千美元,也不想再被邮件折磨。

这不是老板想偷懒,而是他点破了一个关键变化:

AI 应该不再只是能回答问题,而是能完成一件事。

也就是说,AI 不只是告诉你“邮件怎么回”,而是帮你动手回——理解对方说了什么,判断是不是重要信息,用你的语气写出一封合理的回复,然后发出去,甚至归档和提醒。

而为了让 AI 真正干这些事,就需要一个新角色出现——不是开发模型的人,也不是写代码的人,而是调动 AI 去做事的人。

你可以把这个角色想象成一位“AI 协作师(AI Workflow Orchestrator)”:

他不亲自写代码,但知道该让 AI 写什么;他不懂每个模型的结构,但清楚哪种工具适合什么工作;他不管服务器细节,但懂得怎么下达清晰的任务,怎么检查结果靠不靠谱。

哈萨比斯在这次对话中说:我会亲自试用每一个最新的 AI 工具,找出它真正好用的方式。

这听起来像个人习惯,其实已经是一类新岗位的雏形。

在 AI 内容团队中,有人专门把产品文案需求拆解成提示词;在营销行业,有人负责“喂资料”“给反馈”“测效果”;在电商客服和财税行业,有人开始尝试用 AI 执行预设任务流程。

这些工作,既不像程序员那样写代码,也不像设计师那样做创意,它们的本质是:

让 AI 开始工作,并跟进它做到什么程度,哪里不够好人来完善。

这类岗位,未来可能有很多种叫法:“AI 营运”、“提示设计”、“任务协调员”……但核心工作是一样的:

你要懂AI能力的边界,简单来说就是AI能做什么、不能做什么,

会跟它沟通,还能判断它做得对不对。

而这,恰恰是哈萨比斯所说的第一批红利岗位:真正懂得怎么和 AI 协作的人,将进入一个全新的职业赛道。

哈萨比斯说过一句话,现场引发全场沉默:

AI 已经能在没有任何人干预的情况下,

独立发现重要科学规律。

他说的是 DeepMind 的 AlphaTensor,一款用 AI 来优化矩阵乘法的工具。听起来很学术?其实意思很简单:

这是一项50 年没人改进的基础数学运算,最后却被一个 AI 自己找到了更快的方法。

哈萨比斯说:AI 已经从模拟科学,进入到了生成科学阶段。

什么意思?

过去我们是用 AI 帮科学家跑实验,现在 AI 本身就能像科学家一样,自己设实验、试方案、找突破。

这就是他提出的新岗位方向——Scientific Collaborator,我们可以理解为科学合作者。

它不是传统意义上的研究助理,也不是写代码的工程师,而是:

和 AI 一起提出假设;用 AI 去搜索、交叉比对资料;甚至让 AI 自己设计验证方式,再由人去检查这些成果。

比如在 DeepMind 的 AlphaFold 项目中,他们用 AI 预测了超过 2 亿个蛋白质结构,比人类过去几十年的总和还多。

Hassabis 回忆说:

AI 把蛋白质折叠问题的难度,

从几十年缩短到了 18 个月。

这背后的模式,未来可能应用到更多学科:气候建模、新药设计、量子材料、粒子物理……

所以,新岗位的出现是必然的:谁能和 AI 一起提出问题、一起筛选方向、一起验证成果,谁就是下一代科研团队的中坚。

这类人不一定是院士或专家,但他们需要三种能力:

懂一点数学、懂一点领域知识;能快速搞懂 AI 工具的长短板;最重要的是,有强烈的问题意识和“打破常规”的勇气。

正如哈萨比斯所说:AI 是科学的放大器。它不会替代所有科学家,但会带来一批全新形式的科研角色。

这些人未来可能挂的头衔是“AI 研究助理”“AI Lab 协同员”“生成式科研顾问”……最大的不同是:你和 AI 不再是老板和工具的关系,而是并肩作战的战友。

我们不能等到出事才来修规则,

AI 的发展速度太快了。

这句话背后,藏着一个全新的岗位需求:AI 伦理与安全专员(AI Safety & Ethics Officer)——当然,具体叫什么不重要。

在 DeepMind 内部,他们已经设立了专业的“红队”(Red Team)机制: AI 模型在上线前,必须经过一组专门训练的人“故意捣乱”测试,试图诱导它输出偏见、错误信息或敏感内容。

如果你能从这些测试中发现问题、提出改进建议、再设计规则去防止类似问题再发生——你就是“AI 安全链条”中的关键一环。

这听起来是不是很像那些专门'挑毛病'的技术专家? 确实,这个岗位融合了三种思维方式:

像技术人一样找漏洞;像监管者一样立规矩;像心理学家一样考虑人会怎么用 AI。

哈萨比斯特别强调,这不是某个行业的附加功能,而是所有AI部署都需要的一块“保险垫”:

在医疗、金融、教育等高敏感场景,AI 出错的代价太大,必须提前介入风险控制。

放在国内市场,这类岗位已经悄悄上线: 字节、阿里、百度等大厂正在招聘“模型安全测试工程师”“AI 伦理分析师”“人工智能红队专家”,岗位描述集中在审查模型输出、识别潜在风险、提供改进意见。

你不一定是博士,也不需要写代码,但你要有:

好奇心:愿意提出“AI 有没有可能被误用”这类问题;逻辑性:能设计测试,把问题一步步套出来;责任感:明白你不是让 AI 跑得更快,而是防它撞墙。

哈萨比斯相信:如果我们不给 AI 设置边界,它不会自己停下。

而 '谁来定规矩',将成为未来AI时代最重要的新职业之一。

我们正在进入一个新阶段:AI 不是工具,而是你的合作者。

德米斯·哈萨比斯在 SXSW 现场反复强调,“你要能和 AI 共事,而不仅仅是使用它。”

那问题来了:普通人该怎么准备?

整场演说,没有讲空泛的理论,也没劝人去考MBA或者研究生。现场,他只给出四句话,短短几秒,却能看出 DeepMind 创始人对下一代人才的清晰判断。

第一句:我会优先选理工(STEM)类学科。

当被问到“如果你今天重新选大学专业”,Hassabis 没有犹豫:

我还是会选理工科(数学、物理、计算机)。

AI 的底层能力,离不开这些基础知识。

数据也印证了这一判断。LinkedIn 最新一份《AI人才流动报告》揭示:在岗位快速增长的背后,三类技能正在成为关键能力。

数学 → 用来训练和优化模型;计算机 → 掌握工具、写自动化流程;物理 → 特别是在机器人、传感器和强化学习中作用越来越大。

学这些不是为了考试,而是帮助你理解 AI 在做什么、哪里能出错、怎么让它表现更好的核心技能。

第二句:要亲自试用 AI 工具,越多越好。

“你很难仅仅通过看资料,就真正理解AI能做什么。”

哈萨比斯说,工具本身就是一位老师,每试一次,你就多理解一层它的能力边界。

而现实情况是: 很多人天天刷 AI 新闻,也确实用过 ChatGPT、DeepSeek 等工具,甚至能说出一些技巧,但真正花时间研究、尝试把它们组合起来解决实际问题的,仍然是少数。

他提醒:未来的工作,不是你写文档、AI 帮你润色,而是你给出目标,它跑完整流程。

第三句:要适应变化,而不是被流程框死。

哈萨比斯说,他最看重年轻人的一个特质是:

适应性(Adaptability)——你能不能快速看懂新工具在干嘛,并改变自己的做法。

会写提示词(Prompting);能用 GPT/DeepSeek 做结构化资料搜索;懂 Notion AI / 飞书 等工具的流程接入。

两年前这个岗位不存在,而未来两年它可能还会变成别的角色。适应工具迭代,不等于贬低人类能力,而是找到更合适的工作方式。

第四句:把科学、人文和哲学的连接点找回来。

这是全场最意外的一句话。

哈萨比斯并没有只讲技术,他反问:

我们太多时候在优化参数,却忘了问:

我们希望 AI 去解决哪些问题?为什么?

他说,真正优秀的 AI 使用者,既能用工具做事,也能看清事情该不该做”——这不是工具能决定的,而是靠我们自身的价值判断、跨学科理解。

未来人才,不是技术工人,而是思考者、连接者。

一句总结,也是一段过渡:

这四条建议背后,连成一条完整路径:

懂工具 → 能适应 → 会连接 → 最终能引导 AI 做出有价值的贡献。

你会发现,这也正好对应我们前面说的三类新工种:

执行者、合作者、监管者,组成 AI 时代协作链上的三种关键角色。

他们不是三个岗位,而是——
我们与 AI 搭档时,必须学会切换的三种身份。

到这里,哈萨比斯的视角已经拉远——他谈的不是某个岗位被替代,而是整套做事方法的重写。

他给出的,不是就业建议,而是一套“人类 + AI 如何共事”的方法论草图。

未来的工作,不是人对机器,

而是人和 AI 一起解决更复杂的问题。

真正的挑战,不是你用没用 AI,而是你学会把它当作“合作者”而非“工具”来看待。

下一代人才,关键不是学哪一行,而是会不会分解任务、指挥、配合AI。

这不只是技术能力,而是:

来源:趣闻捕手一点号

相关推荐