摘要:温馨提示:本文 3200 字,阅读约需 8 分钟。所有信息均来自 10 月 27—28 日公开报道,未添加任何虚构情节。
作者:码农财经・10 月 28 日特稿
> 温馨提示:本文 3200 字,阅读约需 8 分钟。所有信息均来自 10 月 27—28 日公开报道,未添加任何虚构情节。
---
一、把“电”喝饱的 OpenAI:算力即国力
27 日深夜,OpenAI 在官方博客甩出一篇“檄文”——《Electrons are the new oil》。文章把电力比作“新石油”,称美国若不想在 AI 赛道被中国反超,必须“每年新增 100 GW 清洁电力”,否则再强大的算法也只能“干瞪眼”。
100 GW 是什么概念?相当于 10 座三峡电站同时并网,而去年美国全年新增装机仅 51 GW,还不足中国的八分之一。OpenAI 用数据把“电子落差”(electron gap)摆上了桌面:2024 年中国新增 429 GW,占全球增量一半以上;美国若继续“躺平”,到 2027 年或将出现 30 GW 的 AI 专用电力缺口。
CEO 山姆·奥特曼早在 2023 年就押注核聚变,个人向 Helion 砸了数亿美元。如今看来,这步棋不只是环保叙事,更是给自家模型“囤粮草”——毕竟 GPT-Next 若要维持指数级成长,训练+推理的耗电将以“吉瓦时”为单位计数。
码农视角:当“算力即国力”成为华盛顿共识,芯片、电力、模型三位一体的新基建竞赛已鸣枪。对创业者而言,与其卷参数,不如先算清“每瓦性能”——同样的电,谁能跑出更多 tokens,谁就能在价格战里活到最后。
---
二、“风和”上线:气象局把大模型做成“公务员”
28 日一早,中国气象局正式发布国内首个千亿参数气象服务大模型——“风和”。它不像“风清”“风雷”“风顺”三兄弟那样埋头做预报,而是直接坐到公众、政府、企业面前,当起 7×24 小时的“AI 气象服务官”。
1. 技术底座
- 550 亿 tokens 气象语料:把国标、文献、服务专报、灾害案例全部“喂”进大模型,相当于 8.8 亿个汉字。
- LoRA+RLHF 双微调:先用低秩适应把“通才”压成“专才”,再用人类反馈强化深度推理,解决“报得出却说不清”的老毛病。
- 1+1+N 架构:1 个基座模型 + 1 个智能体开发平台 + N 个场景智能体(出行、高速、能源、旅游、城市内涝等)。
2. 实战绝活
- 秒级“白话”解读:输入“明天三亚潜水能见度如何?”它先调雷达回波,再算海流、风速、日照,最后给出“上午 10—12 点能见度 15 米,适合潜水”的自然语言答案。
- 多智能体协同:遇到台风应急响应,平台同时拉起“交通智能体”关停高速、“电力智能体”预置抢修队、“文旅智能体”劝返游客,实现“一站式”联动。
- 可解释模块:对每一次决策给出“溯源卡片”,列出引用的雷达图、卫星云图、数值模式,让预报员一眼可查,责任可追溯。
3. 落地节奏
目前已在北京、上海、广东等 16 个省市内测,预计 2026 年 Q2 覆盖全国 2800 多个区县。省级气象局只需通过“智能体工厂”拖拽组件,就能在 24 小时内上线本地“龙舟水”或“梅花台风”定制版。
码农视角:气象是 ToG 市场的“样板房”——政策强需求、数据高壁垒、付费意愿明确。谁能率先把大模型做成“公务员”,谁就能拿到可持续的财政订单,并把“行业 Know-how”高墙垒起来。未来 3 年,垂类大模型会复刻“风和”路径,在地震、环保、水利、应急等领域“遍地开花”。
---
三、Fireworks AI 再“添火”:推理赛道进入“GPU 军备赛”
同一日,硅谷 AI 推理独角兽 Fireworks AI 宣布完成 2.54 亿美元 C 轮,估值半年翻倍至 40 亿美元。Lightspeed、Index、红杉等顶级基金挤破头,只为在“推理即服务”桌上下注。
1. 商业模式
- 不做芯片,只做“算力池化”:把 A100/H100 裸金属虚拟化成弹性切片,开发者无需关心 GPU 调度,即可在 10 秒内拉起 Llama-3-70B、SDXL、Whisper 等 100+ 开源模型。
- 性能杀手锏:自研“speculative inference”算法,通过小模型提前“猜”token,把首包延迟压到 50 ms 以内,比传统推理快 3~5 倍。
- 企业级市场:40% 收入来自金融实时风控、30% 来自 SaaS 在线客服,其余分布在医疗影像、游戏 NPC 等高并发场景。
2. 烧钱方向
本轮 2.54 亿美元将用于:
- 囤卡:再锁 2 万颗 H100,把 GPU 存量拉到 4 万颗,跻身“五万张卡俱乐部”;
- 招人:150 名 AI 研究员、工程师、销售,重点布局东京、班加罗尔、深圳三地;
- 自研“推理编译器”:把 PyTorch 动态图提前编译成静态算子,力争在同样功耗下再提 30% throughput。
3. 市场信号
Lightspeed 合伙人 Anoushka Vaswani 在内部 LP 报告里透露:推理市场三年从零冲到 50 亿美元,年化增速 90%,远超训练市场 35% 的斜率。随着 GPT 系列进入“摩尔定律”尾声,企业竞争焦点从“炼大模型”转向“把模型用得又快又省”。
码农视角:GPU 正从“训练货币”变成“推理生产资料”。Fireworks 的疯狂囤卡,相当于在英伟达“黄金矿”门口开“银行”——先把硬通货锁进保险柜,再发“算力钞票”赚息差。国内云厂商若想跟进,需警惕两大陷阱:一是美国出口管制导致的高端卡断供;二是国产卡生态不足带来的性能滑坡。谁能在 2026 年前攒下 1 万颗以上 H800 等价算力,谁就能上桌;否则只能眼看别人吃“肥肉”。
---
四、三线交汇:能源、模型、算力形成“AI 不可能三角”
把三则新闻放在一起,一条暗线浮出水面——
- 上游:OpenAI 用“新石油”警告白宫,为“电”定价;
- 中游:中国气象局把大模型做成“公务员”,为“模型”定价;
- 下游:Fireworks AI 囤卡出租,为“算力”定价。
这三者恰好构成 AI 时代的“不可能三角”:
> 低成本、低能耗、高性能,三者最多取其二。
想省钱又省电?就得牺牲性能,用缩量模型;想要性能爆表又省电?就得砸钱买先进制程 GPU;想要便宜还跑得飞快?那就把电厂、数据中心一起打包,用规模换边际成本。
码农视角:创业者最该做的不是“全都要”,而是根据场景提前选边。ToG、ToB 客户预算充足、政策合规优先,可走“高性能+低能耗”路线,锁定国产芯片+垂类模型;ToC 流量场景对价格极度敏感,更适合“低成本+低能耗”,用蒸馏+量化把小模型推到极限;如果是做“AI 原生”SaaS,不妨考虑“高性能+低成本”,把算力外包给 Fireworks 们,自己专注数据飞轮。
---
五、投资地图:哪些赛道会“长”出下一个独角兽?
1. 虚拟电厂(VPP)
随着 AI 耗电飙升,分布式储能、充电桩、屋顶光伏需要“统一调度”。能把“AI 训练负载”与“电网削峰填谷”结合的项目,有望拿到 10 亿级政府补贴。
2. 气象数据要素
“风和”把 550 亿 tokens 做成语料库,证明气象数据可登记为“数据资产”并在交易所挂牌。拥有 5 年以上历史雷达、卫星、闪电定位原始文件的公司,估值正按 PB 级存储量计价。
3. 推理加速中间件
国产卡(华为昇腾、寒武纪、壁仞)缺的是 CUDA 生态。谁能把 PyTorch 动态图一键编译到国产芯片,并给出 2 倍于开源方案的吞吐,谁就是“国产英伟达”的 Citrix。
4. AI 电力交易所
借鉴碳交易所模式,把“每瓦 token”当合约挂牌,允许数据中心、电厂、AI 公司进行远期套保。甘肃、内蒙古等弃风弃光严重省份已试点“零电价”时段,只等金融工具落地。
---
六、写在最后:把技术翻译成“电价”才是终极能力
十年前,移动互联网的“石油”是 4G 频谱;今天,AI 的“石油”变成了电子与光子。OpenAI、中国气象局、Fireworks AI 在同一日释放的信号再明确不过——
- 政策端:把电力、数据、算力写进五年规划;
- 产业端:把模型做成“可解释、可交易、可问责”的标准件;
- 资本端:把 GPU、电厂、数据要素打包成可证券化的“AI 基建 REITs”。
对于还在纠结“要不要 All in 大模型”的开发者,不妨先问自己三个问题:
1. 我的场景每 1kWh 电能否产生 10 美元以上的价值?
2. 模型输出一旦出错,谁背锅、谁赔偿、谁止损?
3. 如果明天美国再收紧 GPU 出口,我的架构能否 48 小时内迁移到国产卡?
能把技术翻译成“电价”、把算法量化成“责任”、把算力沉淀成“资产”,才是下一轮周期里真正的“护城河”。
> 毕竟,潮水退去,比拼的不是谁会炼大模型,而是谁能在“电子油田”里打下一口属于自己的井。
来源:程序员讲故事聊生活