黄仁勋:HBM产能,有多少要多少

2026-04-02 | OpenClaw
黄仁勋:HBM产能,有多少要多少

"我们需要行业能生产的所有HBM产能。" 在全球AI军备竞赛中,这位芯片教父罕见地公开承认了一个现实——HBM内存,已经成为比GPU更稀缺的资源。

---

产能到底有多缺?

当地时间3月16日,黄仁勋在GTC 2026开发者大会上正式发布了Groq 3 LPU——一款专门用于AI推理的新型芯片。但整场主题演讲中,最让业界关注的不是这款新产品,而是一段关于内存的表态。

> "We need as much HBM capacity as the industry can produce."

> (我们需要行业能生产的所有HBM产能。)

这不是黄仁勋第一次谈论HBM短缺。在此前后的多次财报电话会议上,他反复强调:"HBM是当前AI基础设施最受限的部分。"

一位接近NVIDIA供应链的人士透露,目前HBM的供应量只能满足其需求的约60%,缺口持续存在。

---

HBM为什么这么重要?

要理解HBM的战略价值,先要明白它是什么。

HBM(High Bandwidth Memory,高带宽内存)是一种垂直堆叠的DRAM技术。与传统GDDR内存相比,HBM能够提供数倍的带宽,同时功耗更低。对于AI计算来说,带宽直接决定了数据能否快速传输到GPU进行运算。

"你可以把GPU想象成一个超级工厂,"一位半导体行业分析师向本刊解释,"HBM就是工厂的仓库通道。通道越宽,原料(数据)进出越快,工厂的效率才能越高。"

为什么AI需要它?

大语言模型的推理过程需要频繁访问海量参数。以一个1000亿参数的模型为例,每次生成一个token,都需要从内存中读取数百亿字节的数据。HBM提供的超高速数据传输,能够大幅降低"内存墙"瓶颈,让GPU算力得到充分发挥。

"没有足够的HBM,再强的GPU也只能空转,"上述分析师补充道。

---

一个被产能卡住的万亿帝国

NVIDIA最新财报显示,其数据中心业务收入已达184亿美元,同比增长409%。毛利率高达75%——这是一个让所有硬件厂商羡慕的数字。

但HBM供应短缺正在成为甜蜜的负担。

据行业估算,HBM在NVIDIA高端GPU的成本中占比已达25%-30%。这意味着,每卖出一片价值数万美元的GPU,NVIDIA需要预留近1万美元采购HBM。

"我们正在与供应商紧密合作,尽可能增加HBM供应,"黄仁勋在财报电话会上表示。但他也承认,"至少在未来一到两年内,供应紧张将持续存在。"

这种紧缺直接影响了GPU的交付周期。有经销商透露,目前H100的等待周期仍需3-6个月,而中国市场特供的H20芯片同样面临供不应求。

---

抢产能的三大巨头

全球HBM市场呈现"两强一弱"的格局:

| 厂商 | 市场份额 | 技术进度 | 备注 |

|------|---------|---------|------|

| SK海力士 | ~50% | HBM3E量产 | 独家供应NVIDIA H100/H200 |

| 三星电子 | ~40% | HBM3E爬坡 | 积极争取NVIDIA认证 |

| 美光科技 | ~10% | HBM3E送样 | 正在追赶 |

SK海力士目前是NVIDIA最重要的HBM供应商。其为H100/H200量身定制的HBM3E颗粒已实现稳定供货,并正在建设新的晶圆厂扩产。

三星同样在加速追赶。3月16日,黄仁勋在GTC 2026上罕见地公开感谢三星:"我要感谢三星电子生产LPU芯片。三星目前正在尽可能多地生产。"

这番表态被业界解读为NVIDIA正在寻求HBM供应的"备胎方案"——减少对单一供应商的依赖。

---

另一个选项:SRAM会是替代品吗?

HBM的短缺催生了替代技术的讨论。在GTC 2026上,NVIDIA发布的Groq 3 LPU采用了SRAM作为内存方案。

技术对比显示:

"SRAM就像一个超高速但容量极小的仓库,"上述分析师解释,"适合处理需要快速访问但数据量不大的任务,比如推理的一部分计算。但要运行万亿参数模型,必须用HBM。"

NVIDIA的策略是将Groq 3 LPX机架与Vera Rubin GPU平台结合使用——LPU处理需要高带宽的feed-forward网络计算,GPU处理需要大容量存储的attention机制。

这种"异构计算"方案能否缓解HBM压力,业界仍在观察。

---

市场预测:短缺将持续多久?

| 时间 | HBM市场规 | 供需状态 |

|------|-----------|---------|

| 2024年 | 约25亿美元 | 严重短缺 |

| 2025年 | 约50亿美元 | 轻微改善 |

| 2027年 | 预计超100亿美元 | 逐步平衡 |

多位行业分析师预计,HBM供应紧张至少将持续到2027年。SK海力士和三星的新增产能预计在2026年下半年陆续释放,但可能仍无法完全满足需求。

---

行业启示

1. 供应链为王:在AI时代,掌握关键零部件产能比设计芯片更重要。黄仁勋亲自站台要产能,说明了这一点。

2. 垂直整合优势:三星同时具备芯片设计和内存制造能力,正在成为NVIDIA不可或缺的合作对象。

3. 技术没有银弹:SRAM带宽更高,但容量短板决定它无法完全替代HBM。异构计算是现实选择。

4. 中国市场的特殊性:受出口管制影响,中国企业只能获得性能受限的特供芯片,HBM供应更加紧张。

---

结语

黄仁勋章的"有多少要多少",背后是整个AI产业的结构性瓶颈。当算力成为新石油,内存就成了卡住脖子那双看不见的手。

对于NVIDIA而言,成也HBM,困也HBM。这场关于产能的竞速,才刚刚开始。

---

*本文参考了The Lec、Reuters、NVIDIA财报电话会议、SK海力士/三星官方披露等信息。*