同样写下 300 字,你猜 AI 和人脑,谁消耗的能量多?答案太颠覆

B站影视 欧美电影 2025-09-28 22:44 1

摘要:当我们习惯事事问 AI ,你有没有想过这几个问题:AI 每敲下一段回答,大概会消耗多少能量?以及如果把人脑比作“生物计算机”,和 AI 的“硅基大脑”比起来,到底谁处理信息的能耗更高效?

你最近是习惯点开搜索框查资料,还是随手问 AI 要答案?

当我们习惯事事问 AI ,你有没有想过这几个问题:AI 每敲下一段回答,大概会消耗多少能量?以及如果把人脑比作“生物计算机”,和 AI 的“硅基大脑”比起来,到底谁处理信息的能耗更高效?

答案可能会颠覆你对“智能”的固有认知——AI 每一次输出的背后,都藏着远超想象的能量流动;而大脑——这个进化了数百万年的“生物 CPU”,或许正藏着最节能的生存智慧。

今天这篇文章,让我们跟着作者抽丝剥茧,好好算算这笔“智能账”。

本文共 4800 多字,阅读需要 13 分钟

1

众所周知,我的大脑是个小气鬼。

虽然它已经是我的身体中耗能最高的器官,霸占了我 20%的日常能量消耗,但功率也不过 16 瓦左右。即使截稿日迫在眉睫,它也不肯提高一点功率来帮帮忙。

我对着屏幕苦思冥想,想给自己的拙劣稿子写出点精彩的开头,它仍然无动于衷,甚至嘲笑我:

拼尽全力?那好吧,你给我一杯拿铁,我加到 20 瓦。没有更多了,这是 5.4 亿年进化赋予这个古怪器官的功率上限。就像你的台灯,调到最亮也就那样。

而我面前这台风扇正在呜呜叫的笔记本电脑,正在以 115 瓦的功率陪我一起发呆。光是开着这个几近空白的文档,它用的能源就是我大脑的 10 多倍。

加上路由器、空调、冰箱。

我坐在这堆电器中间,只为了写出一句“众所周知,我的大脑是个小气鬼。”

图源:GIPHY

与此同时,我的朋友发来了 AI 给她写的小说。3 分钟,AI 就给她的冷门 CP 写了一整篇小甜文。这 3 分钟的背后,是功率可能高达 100 兆瓦的 AI 数据中心在为她的 CP 努力。她的小甜文,看着就比我的文章成本贵多了。

真的如此吗?

让我们请出马克吐温,这位大作家在自传里凡尔赛地说,他年轻时“六十天里写了 20 万词,平均每天能写 3000 多词”,即便到了 69 岁,他依然能“每次坐下来写四五个小时,平均能写 1400 词”。

算下来,他的职业生涯平均写作速度是每小时 300 词。按这个让我望尘莫及的速度来算,马克吐温写 300 词需要 1 小时,他那 20 瓦的大脑就要烧掉 20 瓦时的电,这还不算上其他器官能耗和日常消耗。

但是 AI 写 300 词呢?上个月谷歌发布的报告中提到,他们的 Gemini 处理一条请求只需要 0.24 瓦时,差不多只要人类大脑的 1%。

行吧,原来我才是那个又贵又慢的奢侈品。

图源:GIPHY

2

当然,你可能会想:这是写文章嘛,那还有 AI 画画呢?并且前段时间不是刚有媒体说不要对 AI 说谢谢来浪费能源,现在怎么又说人类更耗能了?

的确,同样是写东西,对 AI 说一句“谢谢”,和让它正经写一篇创意故事,能耗就能差出 9 倍之多,这取决于模型调用的参数数量。简单来说,任务越复杂,能耗越大。

而画画的逻辑则又不一样,生成图片通常采用的是扩散模型,消耗的能量和输入的提示词长度无关,而是取决于生成的图片分辨率大小和扩散的步数,步数越多,质量越高,当然也就更耗能。

但算下来,使用拥有 20 亿参数的 Stable Diffusion 3 Medium 生成一张 1024*1024 分辨率的图像大约也是需要 0.3 瓦时,就算扩散步数到 50,也就是 0.6 瓦时,数量级还是一致的。

这就更让人好奇了:AI 的单次成本这么低吗?谷歌报告里那 0.24 瓦时,真的把所有成本都包含进去了吗?

图源:GIPHY

为了确认这不是大公司的营销手段,我仔细阅读了一遍谷歌的报告,这份报告倒是非常翔实,把 Gemini 的能耗仔仔细细分成了四个部分进行统计。

首先是AI 加速器的能耗。把 AI 模型当成一个在超级计算器上执行的程序,这部分就是每次来请求时,芯片执行程序运算所消耗的能量。AI 模型使用的芯片是专门优化过的 GPU 或者 TPU,虽然它们比普通 CPU 聪明,但该烧的电一度也少不了,毕竟天下没有免费的计算。

然后是CPU 和 DRAM 的能耗,虽然 AI 模型通常不直接在 CPU 上进行计算,但是 CPU 得负责调度整个流程:接收问题、分配给 GPU、整理答案再发回来,有点类似项目管理经理,而 DRAM 则是用来存储模型参数和中间计算结果的临时仓库,得随时待命,这种状态也都是要烧电的。

以上两个算是常规能耗,接下来是待机消耗,用户提问的频率并不恒定,很可能凌晨 3 点没什么人提问,而晚上 8 点服务器一直繁忙。但机器必须时刻准备着,就像空驶的出租车,就算没载客也要烧油钱。谷歌把这部分的能耗也摊派了进去。

最后还有数据中心本身。服务器运行发热,冷却系统需要保证它们处于正常工作温度范围内。不间断电源能让数据中心保证永不断电,甚至连接服务器的每根网线都在偷偷吃电。整个数据中心就像一个需要 24 小时开空调的豪宅,电表转得飞快。

算完这些细账,谷歌的报告显示,Gemini 处理一条请求需要 0.24 瓦时。而对比一下,ChatGPT 那边报的数字是 0.34 瓦时。两家的数据在数量级上差不多,看来在能源价格飞涨的今天,没人会在这事上撒谎。

但等等,应该还不止。

这些数字只计算了 AI 回答问题的能耗,还没有算 AI 学习知识的成本。

3

训练模型确实是一次性投资,我多问一个问题,它也不会重新训练一遍,但完全不算也说不过去。考虑到 AI 模型每年都会更新换代,针对一个模型的单次训练的实际寿命很可能不超过两年甚至一年,那么比较公平的做法是把训练成本平摊到 1~2 年所能处理的请求上。

那么训练有多费电?

虽然谷歌对训练 Gemini 的耗能守口如瓶,但我们可以利用OpenAI训练 GPT-4 时所公布的数据进行估算。

训练 GPT-4 动用了 25000 块 Nvidia A100 GPU,连续跑了大约 14 周。一般来说,训练使用的是 8 卡服务器,就是每 8 块 GPU 装进一台服务器,每两块 GPU 配置一个 PCIe Switch,每 2 个 PCIe Switch 配置一块 CPU,再加上 6 块 NVSwitch、2 块存储网卡等。

整台服务器的最大理论功耗 TDP(thermal design power,表示一个硬件在最大理论负载下的功耗)约 6500 瓦。那么整个训练的服务器能耗就是6500*3125*100*24/1000=48750000 kWh(千瓦时)。

前面我们提过,数据中心还会有冷却电源等日常消耗。业内用 PUE(电源使用效率)来衡量这些额外开销,简单来说就是每给服务器用 1 度电,整个数据中心要用几度电。

不同的数据中心 PUE 不同,用于 AI 计算的新型数据中心通常做过优化,PUE 会更小,效率更高。微软的 Azure West 超算中心算是合适的参考标杆,它的 PUE 做到了 1.12。那么训练一次 GPT-4 就是 48750000*1.12=54600000(千瓦时),也就是 5460 万度。

5460 万度电!

一个普通三口之家一个月的用电大概是 200~300 度左右,也就是说这些电能让十万个家庭用 2 个月。

图源:GIPHY

但先别急着惊呼,GPT-4 每天收到 10 亿条请求,就算保守估计只用一年,那么就是 3650 亿次请求。

把 GPT-4 的训练成本平均到一年的请求量上,那么每次请求只分到 0.15 瓦时,加上之前的推理成本,也就是说用户朝 AI 说一次话,能耗成本平均是 0.5 瓦时的数量级。

0.5 瓦时?

嗯,差不多能让一台 30 寸的 LED 显示器亮 1 分钟吧,或者用 1000w 的微波炉叮 2 秒钟饭盒。

这么一算,好像 AI 耗能就是个伪命题。单次成本如此低廉,我们几乎可以忽略不计,还有什么好担心的?我那 20 瓦的大脑因为想不出稿子而焦虑所消耗的能量,都比这要多。

但这正是整个时代向我们描绘的未来中最迷人,也最危险的地方。

4

让我们把视线拉回到 19 世纪的英国。当时,一位叫威廉·斯坦利·杰文斯的经济学家发现了一个奇怪的现象,当詹姆斯·瓦特改良了蒸汽机,大幅提高了烧煤的效率后,英国的煤炭总消耗量非但没有减少,反而以前所未有的速度飙升。

这就是著名的杰文斯悖论:当技术进步提高了资源利用效率时,反而会导致该资源的总消耗量增加,而不是减少。

因为蒸汽机变得更高效、更经济,它被应用到了许多从前并未涉及的领域,因此催生了需求的爆炸增长,让时代变革。

而 AI 领域正在惊人地重演这一幕。

以前我们使用大脑,使用计算器,使用搜索引擎与各类软件来完成工作,现在可能连回一封邮件想个朋友圈文案都懒得自己动脑。让 AI 写小说?真是完美印证了这个悖论,这是一种过去不存在如今却因 AI 的廉价而创造出的全新需求。

更可怕的是,这还仅仅只是开始。

当获取一个答案的成本不可感知时,我们就会要求无数个答案。AI 这种完美乙方把每个用户都惯成了自己最讨厌的甲方“再来一版”“还是没有感觉”。

还有人沉迷于和 AI 的聊天甚至发疯,以前我只在科幻作品里见过这个。这还只是个人用户,企业级的 AI 需求则更多,AI 美颜、AI 长焦相机、AI 生成标题等,连如今的搜索引擎都会看似贴心加一段我根本没有要求的 AI 总结。没办法,不加 AI 功能的产品没有能向投资方讲述的故事。

那么,这场由无数个“0.5 瓦时”汇聚成的需求,在现实世界中究竟有多庞大?

根据国际能源机构(IEA)的报告,2024 年全球所有数据中心的耗电量为 415 太瓦时(TWh,即 1 万亿度电),预计到 2026 年将超过 1000 太瓦时。但在报告中,他们其实无法准确判断有多少能耗来源于 AI 产业,只能通过间接的线索,即以数据中心是否采用 AI 加速器架构来进行估算。

2024 年,有 15%的数据中心采用了加速器的架构,这样算下来 AI 产业的能耗是约 62 太瓦时。这个数字正在逐年上升,即使以最保守的估计,都会在 2030 年增加到 200 太瓦时。

图源:参考资料

62 太瓦时又是什么概念?

倘若我们按照之前的,Chatgpt 每天处理 10 亿条请求,乘以 365 天和 0.34 瓦时,那么一年的能耗只有 0.1 太瓦时,把几个主流聊天 AI 的用量加起来,大概也就 1 太瓦时。

算上训练,全球最大的 283 个大模型的训练能耗加起来也不过 1 太瓦时,全凑出来只有2 太瓦时,62 太瓦时的零头。

结论只有一个:我们日常民用的 AI 模型只是 AI 产业能耗冰山上的一角。

那么,水面下那庞大的、看不见的部分是什么?

IEA 的报告中无法更进一步地分析 62 太瓦时都被用在了什么地方,这些能耗或许被大公司用来训练新一代的 AI 模型,或许被小公司用来训练和运行特定的模型,抑或是花在了各种没有面市的实验性模型上。我们无法精确地剖析这块冰山,但各大公司的数据和行动已经说明了一切。

谷歌的 2025 年环境报告显示,它 2024 年的能耗较上一年增加了 20%,从 25 太瓦时增加到了 32 太瓦时,这之中除了 Gemini,还包含了各种小型公司所使用的云计算服务。

而谷歌、微软、Meta 纷纷增建数据中心和购买电厂,这本身就表明了他们对行业趋势与能源需求的判断:一个由 AI 引领的能源需求时代,即将来临。

所以,我们该怎么办?难道因为耗能,就回到没有 AI 的石器时代吗?这显然不现实。

杰文斯悖论的故事并非让我们停下脚步,而是在提醒我们:节流多半没用,人类不会甘心回到过去的苦日子,时代往前进步,靠的一定是开源。

科技巨头们比谁都清楚这一点。他们疯狂投资可再生能源,甚至自建电厂,在自己的环境年度报告中标榜绿色与低碳。

他们不是在做慈善,而是在为即将到来的巨浪修建堤坝,否则第一个被淹没的就是他们自己。

而我们能做的,是在享受便利的同时,保持一份清醒,并要求一个更透明的未来。

AI 行业的能源消耗有不少数据尚未公开,因此连国际能源署对行业未来也有各种差异颇大的估算。这就像去吃一个菜单没有价格的新店,我们只管兴高采烈地点菜,却不知道最后的账单会有多惊人。

毕竟,我那 20 瓦的大脑虽然小气,但它至少教会了我一件事——

天下没有免费的午餐,也没有免费的答案。

参考文献

[1] Black R W, Donald J. Patterson & Andrew W. Torrance. The carbon emissions of writing and illustrating are lower for AI than for humans[J]. Scientific Reports, 14 February 2024.

[2] James O'Donnell, Crownhart C. We did the math on AI’s energy footprint. Here’s the story you haven’t heard.[J]. , May 20, 2025.

[3]https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117

[4] https://mit-genai.pubpub.org/pub/8ulgrckc/release/2

[5]https://www.gstatic.com/gumdrop/sustainability/google-2025-environmental-report.pdf

[6] https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference

[7] https://azure.microsoft.com/en-us/blog/how-microsoft-measures-datacenter-water-and-energy-use-to-improve-azure-cloud-sustainability/

[8] https://www.iea.org/reports/energy-and-ai/energy-demand-from-ai

策划制作

本文为科普中国·创作培育计划扶持作品

出品丨中国科协科普部

监制丨中国科学技术出版社有限公司、北京中科星河文化传媒有限公司

作者丨antares计算机图形学硕士、游戏行业从业者、科普作家

审核丨于旸 腾讯玄武实验室负责人

策划丨张林林

责编丨张林林

审校丨徐来

来源:中国科技志愿

相关推荐