美光2024年和2025年大部分HBM3E产能已被预订

Yu |  2024-03-20

  3月20日消息,外媒报道称,据美光公司透露,该公司已经成功地销售了2024年先进的高带宽内存的全部供应,而2025年的大部分生产也已经分配完毕。

  美光的HBM3 Gen2是第一批符合英伟达更新的H200/GH200加速器资格的内存之一,因此看起来这家DRAM制造商将成为英伟达的主要供应商。

  美光首席执行官Sanjay Mehrotra在本周的财报电话会议上表示:“我们2024年的HBM已经卖完了,2025年的绝大部分供应已经分配完了。我们仍然预计HBM的比特份额将在2025年的某个时候与我们的整体DRAM比特份额相当。”

  美光的首批HBM3E采用8-Hi设计,提供24GB容量和超过1.2TB/s带宽。英伟达用于人工智能和高性能计算的H200具备使用HBM3e高带宽内存的能力,集成141GB内存。

  Mehrotra表示:“我们有望在2024财年从HBM产生数亿美元的收入,并预计从第三财季开始,HBM收入将增加我们的DRAM和整体毛利率。”

  该公司还开始测试其12-Hi 36GB堆栈,提供50%以上的容量。这些KGSD将在2025年增长,并将用于下一代人工智能产品。与此同时,英伟达的B100和B200似乎不会使用36GB的HBM3E堆栈,至少在最初是这样。

  去年对人工智能服务器的需求创下了纪录,今年似乎也将保持在高位。一些分析师认为,到2023年,英伟达的A100和H100处理器,以及它们的各种衍生产品将占据整个人工智能处理器市场80%的份额。

  虽然今年英伟达将在推理领域面临来自AMD、AWS、D-Matrix、英特尔、Tenstorrent和其他公司更激烈的竞争,但看起来英伟达的H200仍将是人工智能训练的首选处理器,尤其是对于Meta和微软这样的大公司来说,已经运行了由数十万个英伟达加速器组成的团队。考虑到这一点,成为英伟达H200的HBM3E的主要供应商对美光来说是一件大事,因为这使美光最终占据了相当大的HBM市场份额,目前该市场由SK海力士和三星主导,截至2023年,美光仅控制了约10%。

查看更多内容
正在加载
第三方账号登录
X
发布