在AI芯片竞争中,GPU算力固然重要,但另一个关键组件正在成为新战场:高带宽内存(HBM)。Samsung宣布投入730亿美元扩大AI芯片产能,核心目标之一就是夺回HBM市场的主导权。
**什么是HBM?**
HBM(High Bandwidth Memory)是一种堆叠式内存技术,通过将多层DRAM芯片垂直堆叠,实现极高的数据传输带宽。对于AI训练来说,内存带宽是比算力更常见的瓶颈——GPU再快,如果数据供应不上,也只能空转等待。
**为什么Nvidia需要HBM?**
Nvidia的H100、B200等AI加速卡都依赖HBM3或HBM3e内存。每块芯片需要80GB甚至更多的HBM,而这些内存目前主要由SK海力士供应。随着AI模型越来越大,对HBM的需求只增不减。
**三大厂商的竞争**
SK海力士目前是Nvidia的主要HBM供应商,技术领先、产能稳定。Samsung虽然技术储备雄厚,但在HBM良率和客户关系上落后一步。Micron也在追赶,希望从这块蛋糕中分一杯羹。
**对AI行业的影响**
HBM的供应紧张和价格上涨,直接影响AI训练成本。如果Samsung成功扩大产能,AI芯片的供应有望改善,这将对整个AI行业产生利好——更低的成本、更短的等待时间、更快的迭代速度。
从长远看,HBM战争是AI产业链洗牌的一部分,谁能掌握关键组件,谁就能在AI时代占据更有利的位置。
发表回复