摘要:你有没有发现,最近AI圈的风向有点变了?以前大家拼的是GPU算力,谁家芯片快谁就赢,可现在风头好像慢慢被内存抢走了。KAIST的金正浩教授一开口就炸了锅,说AI时代的真正“权力”正从GPU悄悄转移到内存手上。这可不是随便说说,人家可是被誉为“HBM之父”的技术
你有没有发现,最近AI圈的风向有点变了?以前大家拼的是GPU算力,谁家芯片快谁就赢,可现在风头好像慢慢被内存抢走了。KAIST的金正浩教授一开口就炸了锅,说AI时代的真正“权力”正从GPU悄悄转移到内存手上。这可不是随便说说,人家可是被誉为“HBM之父”的技术大神,当年HBM能从图纸变成现实,他就是背后的灵魂人物。现在他又抛出个新词——HBF,全名叫高带宽闪存,说是2027年就能登上舞台中央,直接干翻现有存储格局。
这事儿还得往回倒着看。就在刚过去的2025年10月中旬,OCP全球峰会现场,SK海力士悄无声息地亮出了一款叫“AIN Family”的新产品线,里头赫然出现了AIN B系列,正是基于HBF技术打造的。没过多久,8月份的消息才被扒出来:SanDisk和SK海力士早就签了MoU,打算联手制定HBF的技术标准。他们计划在2026年下半年拿出样品,2027年初就能看到搭载HBF的AI推理系统上线。动作之快,简直像提前排练过一样。
而另一边,三星也没闲着。虽然目前还处在早期概念设计阶段,量产时间表都没定,但他们显然不想在这场新竞赛里掉队。毕竟,谁都知道数据中心对高性能存储的需求越来越疯,光靠传统的HDD和普通SSD已经撑不住了。尤其是AI推理过程中那个叫KV Caching的技术,对内存容量极其敏感,稍微卡一下,响应速度就得崩。
金正浩打了个特别形象的比方:未来的AI内存系统就像个智能图书馆。GPU里的SRAM是手边的笔记本,翻得最快但写不了几页;HBM是旁边的书架,随拿随用;至于HBF,则是埋在地下的巨型书库,藏书量惊人,随时给上面供料。它用的是NAND闪存,虽然速度不如DRAM,但容量能高出十倍不止。堆上成百上千层,再配上TSV技术垂直互联,简直就是“HBM的NAND版”。
有意思的是,他居然大胆预测,英伟达以后很可能会收购一家内存厂商。这话一出,整个行业都抖了三抖。毕竟老黄家一直靠GPU称霸AI训练市场,但如果未来计算和存储的边界越来越模糊,谁掌握内存,谁才真正掌握话语权。到那时候,HBM和HBF双管齐下,可能才是下一代AI芯片的标准配置。
来源:梅花酒疏影
