NVIDIA将斥巨资为即将推出的Hopper H200和Blackwell B100 AI GPU采购HBM3E内存

NVIDIA在HBM3E内存上投入了大量资金,试图为其下一代Hopper H200和Blackwell B100 AI GPU确保足够的库存。

韩国媒体Biz.Chosun透露NVIDIA已向SK hynix、美光等公司订购大量HBM3E内存,为其针对AI领域的下一代产品做准备。 这种方法限制了其他公司的访问,要么使他们无法获取资源,要么限制他们对资源的访问。
NVIDIA-MLPerf-Inference-v3.1-Hopper-H100-Grace-Hopper-GH200-L4-GPU-Performance-_.png
韩国媒体称NVIDIA已为HBM3E预付了约7,000亿至1兆韩元,这是一个不同的数字,但考虑到该行业的巨大需求,预计实际金额将接近1兆韩元大关。 光是预付款一项就约为7.75亿美元,实际数字可能超过10亿美元。 据业内人士26日透露SK hynix和美光已分别从NVIDIA获得了7000亿至1兆韩元的预付款,用于供应尖端内存产品。

NVIDIA的巨额预付款引发了那些努力扩大HBM产能的存储器半导体公司的投资行动。 特别是最大供应商SK Hynix计划将从NVIDIA收到的预付款集中投资于扩大 TSV设施。 去年第三季新建TSV线的相关工作进展顺利就证明了这一点。 同样美光对TSV设施的投资预计也会增加。

同时据悉三星电子近期也与NVIDIA完成了HBM3和HBM3E产品适用性测试,并签署了供货合约。

来自Biz.Chosun(机器翻译)

AI产业发展迅速,Intel、AMD等公司加紧研发,追赶NVIDIA,NVIDIA团队必须先发制人,以保住主导地位。 说到HBM3E,目前NVIDIA计划在其下一代Blackwell AI GPU中首次亮相HBM3E此外,NVIDIA的Hopper H200 GPU也将配备全球最快的HBM3E,因此该解决方案对于NVIDIA在AI和HPC市场的成功有重要意义。

NVIDIA对数据中心领域的收入抱有很高的期望,因此他们显然领先其他公司一步。 NVIDIA计划在2027年通过AI驱动的销售创造高达3000亿美元的收入,因此确保向客户稳定供应AI GPU是他们的首要目标。 另一个有趣的事实是收购HBM3E将为HBM行业带来巨大的推动力,特别是在设施扩建方面,因为订单积压对于SK hynix和Micron等公司来说是一个大问题,因此需要预先测量供应意味着HBM的交付将变得更加容易。

NVIDIA目前处于主导地位,并且还不打算放弃其宝座。 NVIDIA及其硬件部门在CUDA平台上的进步已经彻底改变了市场状况,未来的前景将会很有趣。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表回复

登录后才能评论