AMDMI450瞄准432GB显存,Nvidia、三星的HBM4压力有多大?

B站影视 内地电影 2025-09-21 23:58 1

摘要:最近Nvidia不按常理出牌,非要让内存供应商把HBM4的速度干到10Gb/s,比JEDEC的官方标准快不少,这操作在硬件圈里算挺激进的了。

咱先把事儿说透,HBM这玩意儿对AI芯片就是“口粮”,传数据快不快直接影响算力能不能跑起来。

最近Nvidia不按常理出牌,非要让内存供应商把HBM4的速度干到10Gb/s,比JEDEC的官方标准快不少,这操作在硬件圈里算挺激进的了。

可能有人不懂啥叫“针脚速度”,其实就是内存和GPU之间的“数据高速路”,速度越快,数据传输越顺畅。

按JEDEC给的8Gb/s标准算,单个HBM4堆栈在2048位接口下,带宽还不到2TB/s。

但Nvidia要的10Gb/s一落地,单个堆栈直接冲到2.56TB/s,六个堆栈拼一起,单个GPU带宽就能到15TB/s。

它家2026年要出的VeraRubin平台,NVL144机架甚至能实现1.7PB/s的传输速率,这对AI推理工作来说,效率提升确实肉眼可见。

Nvidia这么干有点“赌”的意思,速度上去了,麻烦也跟着来,功耗会涨,时序控制更严,对芯片本身的压力也大。

TrendForce都放话了,要是成本或散热搞不定,Nvidia可能得把Rubin分成两个版本卖:好的用10Gb/s的HBM4,普通的就用慢一点的。

它还留了后手,错开供应商的认证流程,延长验证时间,就是想提高良品率,怕到时候掉链子。

供应商这边反应也不一样,SK海力士是Nvidia的老搭档,早说HBM4开发完了,就等量产,还提了一嘴“性能超10Gb/s”,但具体参数、功耗目标啥都没说。

美光倒是确认有HBM4样品了,接口2048位,带宽超2TB/s,可没提能不能支持10Gb/s,看来还没十足把握。

Nvidia催着要速度,三星这边总算把之前的“坑”填上了。最近它家12层的HBM3E,终于过了Nvidia的认证测试。

这事说起来不容易,三星研发这芯片花了18个月,之前好几次因为性能不达标没通过,后来还是副董事长全永铉亲自下场,重新设计了DRAM核心,解决了热性能问题才成的。

虽说这次给Nvidia供货量不会多,毕竟SK海力士和美光早一步拿到认证了,但对三星来说,这不是赚不赚钱的事,是挣面子。

之前在HBM领域,它一直被SK海力士压着,这次能过Nvidia的认证,等于告诉行业“我技术又跟上了”。

而且三星的心思早放在HBM4上了。

它打算用4nmFinFET工艺做HBM4的基础芯片,这工艺在逻辑芯片里算先进的,能支持更高的时钟速度,还能降低功耗。

之前有消息说,三星都给Nvidia演示过11Gb/s的速度了,比SK海力士的10Gb/s还快,美光现在还没跟上这节奏。

它计划这个月就给Nvidia送HBM4样品,想早点拿到认证,2026年上半年就能大批量供货。

三星去年跟台积电合作开发HBM4这步走对了,不然想追上SK海力士更难。

AMD:拼显存容量

这边Nvidia和三星围着速度较劲,AMD走了条不一样的路,拼显存容量。

它家还在规划的MI450Helios平台,单个GPU能支持432GB的HBM4显存,这容量比现在Nvidia的配置大不少。

要是真能落地,AMD说不定能在显存容量上追上甚至超过Nvidia,吸引一批看重存储的用户。

不光是容量,AMD还升级了CDNA4架构,就是想把HBM4的性能充分发挥出来,跟Nvidia的Rubin平台拼推理能力。

说实话,AMD这招挺聪明的,不跟Nvidia死磕速度,找了个差异化的突破口,毕竟有些AI场景里,显存够不够用比传得快不快更重要。

Nvidia推10Gb/sHBM4,是想巩固自己在AI芯片的优势,但风险也不小,供应商的良品率、功耗控制,还有机架级的功率限制,都是要解决的问题。

三星靠技术调整总算跟上节奏,想靠HBM4夺回市场份额,AMD则靠容量找机会,三家各有各的算盘。

其实这波HBM4竞争,最终受益的还是AI行业,毕竟内存性能上去了,算力才能更好地发挥作用。

不过2026年量产的时候能不能顺利,还得看各家能不能解决实际问题,咱接着蹲后续消息就行。

来源:点尘看史

相关推荐