SK hynix已确认开发出世界上最快的HBM3e DRAM,现已提供给NVIDIA和其他客户进行评估。
早在6月就有报道称SK hynix已收到NVIDIA的下一代HBM3e DRAM样品请求,当NVIDIA宣布其GH200 GPU配备增强型HBM3e DRAM时,该请求成为现实,每个芯片可提供高达5TB/s的带宽。
新闻稿: SK hynix公司今天宣布成功开发出HBM3E,这是目前用于人工智能应用的下一代最高规格DRAM,并表示客户的样品评估正在进行中。
该公司表示,HBM3E(HBM3的扩展版本)的成功开发得益于其作为业界唯一的HBM3大规模供应商的经验。 凭借作为业界最大HBM产品供应商的经验和量产准备水平,SK hynix计划在明年上半年量产HBM3E,巩固其在AI内存市场无与伦比的领导地位。
该公司表示最新产品不仅满足业界最高的速度标准(AI既体产品的关键规格),而且所有类别都包括容量、散热和用户友好性。 在速度方面HBM3E每秒可处理高达 1.15TB的数据,相当于每秒处理230多部5GB大小的FullHD电影。
此外该产品在最新产品上采用先进质量回流成型底部填充(MR-MUF**)尖端技术,散热性能提高了10%。 它还提供向后兼容性***,甚至可以在为HBM3准备的系统上采用最新产品,而无需修改设计或结构。
** MR-MUF:将芯片附着到电路上并在堆叠芯片时用液体材料填充芯片之间的空间而不是铺设薄膜以提高效率和散热的制程
*** 向后兼容性:无需修改设计即可实现新旧系统之间的互操作性的能力,特别是在信息技术和计算领域。 拥有向后兼容性的新型内存产品允许继续使用现有的CPU和GPU,而无需修改设计
NVIDIA超大规模和HPC计算副总裁Ian Buck表示:我们与SK hynix在高带宽内存方面有着长期合作,以提供领先的加速计算解决方案。 我们期待继续与HBM3E合作,提供下一代人工智能计算。
SK hynix DRAM产品规划主管Sungsoo Ryu表示,公司透过HBM3E的开发,进一步增强HBM产品阵容的完整性,巩固了市场领导地位,在AI技术的发展中备受瞩目。
