取消
搜索历史
热搜词
原创
活动
产业创新
转型理念
ENI专访
当前位置:首页 >文章发布 > 正文
美光科技开始量产HBM3E内存 将用于英伟达H200 AI芯片
来源:智通财经  作者: 佚名 2024-02-27 09:56:17
近日获悉,美光科技(MU.US)已经开始量产用于英伟达(NVDA.US)最新人工智能芯片的高带宽内存(HBM)。据悉,美光科技的HBM3E产品将供货给英伟达,并将应用于英伟达H200 Tensor Core GPU,该GPU预计将于第二季度开始发货。

近日获悉,美光科技(MU.US)已经开始量产用于英伟达(NVDA.US)最新人工智能芯片的高带宽内存(HBM)。据悉,美光科技的HBM3E产品将供货给英伟达,并将应用于英伟达H200 Tensor Core GPU,该GPU预计将于第二季度开始发货。

资料显示,美光科技HBM3E内存基于1β 工艺,采用TSV封装、2.5D/3D堆叠,可提供1.2 TB/s及更高的性能。美光科技表示,与竞争对手的产品相比,其HBM3E产品有着以下三方面的优势:(1)卓越性能:美光HBM3E拥有超过9.2Gb/s的针脚速率、超过1.2 TB/s的内存带宽,可满足人工智能加速器、超级计算机和数据中心的苛刻需求。(2)出色能效:与竞品相比,美光HBM3E功耗降低了约 30%,在提供最大吞吐量的前提下将功耗降至最低,有效改善数据中心运营支出指标。(3)无缝扩展: 美光HBM3E目前可提供24GB容量,可帮助数据中心轻松扩展其AI应用,无论是训练大规模神经网络还是加速推理任务都能提供必要的内存带宽。

美光科技执行副总裁兼首席商务官Sumit Sadana表示:“美光科技凭借这一HBM3E里程碑实现了三连胜:上市时间领先、一流的行业性能以及差异化的能效概况。”“人工智能工作负载严重依赖内存带宽和容量,美光科技处于有利位置,可以通过我们业界领先的HBM3E和HBM4路线图以及我们用于人工智能应用的完整DRAM和NAND解决方案组合来支持未来人工智能的显著增长。”

HBM是美光科技最赚钱的产品之一,部分原因在于其构造所涉及的技术复杂性。美光科技此前曾表示,预计2024财年HBM收入将达到“数亿”美元,并在2025年继续增长。Moor Insights & Strategy分析师Anshel Sag表示:“我认为这对美光科技来说是一个巨大的机会,特别是因为HBM在人工智能应用方面越来越受欢迎。”

HBM市场目前由SK海力士主导。Anshel Sag补充称:“由于SK海力士2024年的库存已经售罄,有另一个供应市场的供应商可以帮助AMD、英特尔或英伟达等芯片制造商扩大GPU生产规模。”

免责声明:本文系网络转载,版权归原作者所有。本文所用图片、文字如涉及作品版权问题,请联系删除!本文内容为原作者观点,并不代表本网站观点。
编辑:乔帅臣
活动 直播间  | CIO智行社

分享到微信 ×

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。