moe

算力的竞争:从暴力计算到效率觉醒

当ChatGPT掀起全球AI竞赛时,硅谷巨头们曾断言“算力即权力”,认为千亿参数模型必须依赖海量GPU的堆砌,大模型的训练动辄就万卡集群,英伟达的H100芯片被炒至4.5万美元的天价。然而,DeepSeek以行业十分之一的训练成本打造的MoE模型,却在多个基准

竞争 英伟达 gpu moe 诺依曼 2025-05-14 10:30  2

:将会持续推进AI技术商业化落地

业绩会上,首席执行官程一笑表示,对于AI大模型的进展方面,公司正在研发Moe模型,在模型预训练阶段,多个指标超过11750E模型,大幅降低模型训练的退役成本,通过在可控生成方面升级了镜头控制首尾针控制运动笔刷对口型能力,持续的保持行业领先地位。

商业化 moe 对口型 2024-11-21 10:43  1