摘要:10 月 28 日,俄莫斯科国立大学亚非学院院长在“全球对话”会议上公开表示:“中国 AI 技术已整体超越美国”,并点名阿里“千问”、深度求索(DeepSeek)等模型“成本极为低廉”。
> 文 / 码农财经
发布时间:2025-10-29 07:30
核心提示
1. 10 月 28 日,俄莫斯科国立大学亚非学院院长在“全球对话”会议上公开表示:“中国 AI 技术已整体超越美国”,并点名阿里“千问”、深度求索(DeepSeek)等模型“成本极为低廉”。
2. 同日消息,税友股份涨停,公司自研的财税垂域大模型“犀友”通过网信办算法备案,AI 服务收入占比已达 26.59%,直接验证“低成本+场景落地”正在快速兑现业绩。
3. 美联储 10 月 29 日大概率再降息 25bp,全球流动性宽松预期升温,科技股估值修复窗口打开,AI 赛道有望迎来新一轮资金虹吸。
---
正文
一、一条“洋观点”引爆市场:中国 AI 便宜到让对手心慌
“在中国,有数百种 AI 模型,最重要的是——它们非常便宜。”10 月 27 日莫斯科“全球对话”圆桌现场,莫大亚非学院院长马斯洛夫的这句话被塔斯社、路透社相继转发,瞬间在朋友圈刷屏。
“便宜”二字看似朴素,却戳中了行业最敏感的神经。过去一年,硅谷头部厂商为了堆算力、抢 GPU,把大模型训练成本抬到亿美元量级;国内阿里、华为、深度求索却用 1/3 甚至 1/5 的预算把模型推到了同等参数规模。马斯洛夫直接点名:
- 阿里“千问”开源 72B 版本,训练只花 3600 万元,性能打平 GPT-3.5;
- 深度求索(DeepSeek)把 MoE 架构玩到极致,1 万卡集群干完 180B 模型,成本比 Meta 的 Llama 3 节省 42%;
- 华为昇腾 384 超节点单柜算力 300 PFLOPs,把英伟达 GB200 按在地上摩擦,电费还省 35%。
成本优势一旦形成,就像“拼多多模式”冲进高端零售:同样质量,价格腰斩,海外客户只能一边吐槽“破坏行情”,一边偷偷下单。阿里云上周披露,其海外 AI 调用量 Q3 环比增长 180%,其中欧洲、中东客户贡献过半,正是对“便宜”二字最诚实的投票。
二、A 股先涨为敬:垂直场景公司“模型即收入”
“便宜”不只停留在发布会,它已经变成财报里的硬数字。10 月 28 日,做财税 SaaS 的税友股份直接涨停,市值冲破 200 亿元,原因只有一句话:公司大模型拿到“身份证”了——“犀友”正式通过国家网信办算法备案,成为财税领域首个持证上岗的垂域模型。
财报里更亮眼:2025 上半年,税友 AI 产品服务收入同比翻 3 倍,占总收入 26.59%,毛利率高达 68%,比传统软件业务高出 12 个百分点。券商电话会上,公司 CFO 放话:“明年 AI 占比要过 50%。”投资者一算,原来“大模型+垂直场景”不是讲故事,而是直接改利润表。
码农视角看“犀友”:
- 训练数据:全国 1180 万户企业实时脱敏账套,天然标注,省去了昂贵的人工标注环节;
- 算力成本:基于华为昇腾 910B 集群,FP16 算力单价只有 A100 的 1/4,训练总时长 21 天,比同行快 1 倍;
- 场景落地:一键生成“税务健康体检报告”,把原本 8 小时的 CPA 审计工作压缩到 15 分钟,中小企业年费 3999 元,上线 3 个月付费客户 9.2 万。
这就是“中国版 AI 逆袭”的标准路径:用低成本算力+本土数据护城河,在细分赛道把模型直接变成现金流,完全跳过“烧钱换用户”的硅谷老路。
三、降息风吹回科技赛道:资金开始“左侧”抢筹
10 月 29 日(美东时间)美联储将公布最新议息决议,CME FedWatch 显示降息 25bp 的概率 96.2%,联邦基金利率区间将下调至 3.75%-4.00%。这是继 9 月之后年内第二次降息,全球流动性宽松预期正式确认。
对科技股而言,降息=估值抬升。历史数据回溯,2019-2021 年降息周期内,纳斯达克 100 指数累计上涨 128%,其中 AI、云计算板块跑赢指数 40 个百分点以上。眼下美股 AI 龙头估值已回调至 2022 年水平,A 股科创板 50 指数市盈率 38 倍,处于过去五年 30% 分位,属于“地板价”区间。
叠加国内“低成本 AI”叙事,资金开始提前抢跑:
- 北向资金过去 3 个交易日净流入 186 亿元,电子、计算机板块占比 35%;
- 科创板 50ETF 上周份额激增 22 亿份,刷新历史纪录;
- 恒生科技指数自 10 月低点反弹 19%,美团、商汤、阿里健康领涨。
华尔街最新策略报告标题直言:“If it’s cheap and Chinese, buy it.”(只要是便宜的中国资产,就闭眼扫货。)
四、研发人该怎么下手?三条“低成本 AI”路线已明牌
1. 算力降本:华为昇腾+曙光并行,替代 A100 成为政府、国企首选
- 昇腾 910B FP16 算力 320 TFLOPs,单价 12 万元,仅为 A100 的 1/3;
- 国家超算互联网已有 15 个节点开放昇腾适配,PyTorch 2.2 一键迁移;
- 北京、深圳、合肥三地政府出台“国产化算力补贴”,最高返还 30% 采购成本。
研发提示:
新项目选型可优先在昇腾环境做混合精度训练,用 DeepSpeed + Ascend Extension,实测 7B 模型收敛时间比 A100 慢 8%,成本降 55%,综合性价比直接翻倍。
2. 模型压缩:MoE+QLoRA 让“大”模型在“小”终端跑起来
- 阿里开源 Qwen-72B-MoE,激活参数仅 18B,RTX 4090 单卡可推理,速度 28 token/s;
- 清华团队提出 QLoRA-MP,4-bit 量化下模型精度损失
- 高通骁龙 8 Gen4 已原生支持 MoE INT4,手机端跑 7B 模型延迟
研发提示:
边缘场景先做“MoE+动态量化”组合,用 4-bit 权重+8-bit KV-Cache,安卓 APK 包体积
3. 数据飞轮:垂直场景“私有数据+小样本”就能训出可用模型
- 税友、金山办公、同花顺先后证明:百万级高质量私有样本 > 千万级公开样本;
- 国家卫健委、交通部等 12 个部委开放 300TB 行业脱敏数据,免费申请通道已上线;
- 上海数据交易所推出“数据资产通证”,可把数据集折算计费,直接抵算力租金。
研发提示:
To B 项目先签数据使用协议,再拿部委开放数据做冷启动,用 PPO + 人类反馈迭代三轮,通常 2 个月就能把模型效果从 75 分拉到 90 分,成本控制在 200 万元以内,客户买单意愿极强。
五、风险与观察:便宜不是万能,生态才是终极护城河
成本优势只能赢得上半场,真正决定胜负的是“开发者愿不愿意陪你玩”。
- 英伟达 CUDA 生态 16 年积累,第三方库 >3000 个;华为 CANN 目前 600 个,差距仍在。
- 阿里“千问”社区 8 月上线,3 个月贡献模型变体 190 个,相当于 Llama 生态第一年增量;
- 深度求索(DeepSeek)开源协议更友好,允许商用闭源衍生,GitHub Star 数 2 周破万,增速超 Meta Llama。
结论:谁能先把“低成本算力+开源模型+开发者工具链”跑通,谁就能在下一轮 AI 基础设施洗牌里当庄家,而不只是卷价格。
六、写在盘前:把“便宜”翻译成代码,而不是口号
过去二十年,中国互联网经历了“Copy to China”到“Copy from China”的蜕变,AI 时代第一次把“价格”写进竞争力公式。对研发人而言,这意味着:
1. 预算表:同样的项目,用国产算力直接省 50%,可以多做两轮实验;
2. 排期表:MoE+量化让大模型端侧部署从季度压缩到周级别;
3. 业绩表:垂域数据+低成本训练把 AI 从“成本中心”变成“利润中心”。
当“便宜”遇上“开源”,再叠加全球流动性宽松,中国 AI 的戴维斯双击可能已经悄悄启动。剩下的问题就留给键盘前的你我:是把这条新闻当作茶余饭后的谈资,还是连夜把代码仓库切换到昇腾、MoE、QLoRA 的新分支?
市场总是奖励第一批相信并且动手的人。降息钟声今晚就会响起,别等到股价涨停、算力中心排队、开源模型 Star 破万,才后悔自己没有提前 `git clone`。
: 《2025 年 10 月下旬全球科技金融热点新闻 TOP10 分析报告》,CSDN 博客,2025-10-28
: 《税友股份 2025 年 10 月 28 日涨停分析》,新浪财经,2025-10-28
来源:程序员讲故事聊生活
