NVIDIA 在 HBM3E 内存上投入了大量资金,试图为其下一代 Hopper H200 和 Blackwell B100 AI GPU 确保足够的库存。
NVIDIA 下达价值数十亿美元的订单以确保 HBM3E 内存供应,利用下一代 Hopper H200 和 Blackwell B100 GPU 推动 2024 年人工智能竞赛
韩国媒体Biz.Chosun透露,NVIDIA 已向 SK 海力士、美光等公司订购大量 HBM3E 内存,为其针对 AI 领域的下一代产品做准备。这种方法限制了其他公司的访问,要么使他们无法获取资源,要么限制他们对资源的访问。
相关报道 NVIDIA H100 GPU 驱动的 AI 发电站和数据中心消耗的电力相当于整个国家的电力消耗
韩国媒体称,NVIDIA 已为 HBM3E 内存预付了约 7000 亿至 1 万亿韩元,这是一个不同的数字,但考虑到行业的巨大需求,我们预计实际金额接近万亿韩元大关。仅预付款一项就约为 7.75 亿美元,实际数字可能超过 10 亿美元。
据业内人士26日透露,SK海力士和美光已分别从英伟达获得了7000亿至1万亿韩元的预付款,用于供应尖端内存产品。
NVIDIA 的巨额预付款引发了那些努力扩大 HBM 产能的内存半导体公司的投资行动。特别是最大供应商 SK Hynix 计划将从 NVIDIA 收到的预付款集中投资于扩大 TSV 设施,这抑制了 HBM 产能。去年第三季度新建TSV线的相关工作进展顺利就证明了这一点。同样,美光对 TSV 设施的投资预计也会得到增加。
同时,据悉三星电子近期也与NVIDIA完成了HBM3和HBM3E产品适用性测试,并签署了供货合同。
AI行业发展迅速,Intel、AMD等公司加紧研发,追赶NVIDIA,Green团队必须“先发制人”,以保住主导地位
说到 HBM3E,目前 NVIDIA 计划在其下一代 Blackwell AI GPU 中首次亮相 HBM3e ,传闻将于 2024 年第二季度推出,而在性能方面,它将在每瓦性能方面带来决定性的提升,通过采用小芯片设计。此外,NVIDIA的Hopper H200 GPU也将配备全球最快的HBM3E内存,因此该解决方案对于NVIDIA在AI和HPC市场的成功具有重要意义。