2024Week05:算力系列报告(一):AI服务器催化HBM需求爆发,核心工艺变化带来供给端增量

HBM助力AI服务器向更高带宽、容量升级。HBM即高带宽存储,由多层DRAMdie垂直堆叠,每层die通过TSV穿透硅通孔+μbumps技术实现与逻辑die连接,使得8层、12层die封装于小体积空间中,从而实现小尺寸于高带宽、高传输速度的兼容,成为高性能AI服务器GPU显存的主流解决方案。目前迭代至HBM3的扩展版本HBM3E,提供高达8Gbps的传输速度和16GB内存,由SK海力士率先发布,将于2024年量。   

需求端:HBM成为AI服务器标配,催化其市场规模超50%增长。HBM主要应用场景为AI服务器,最新一代HBM3e搭载于英伟达2023年发布的H200。根据Trendforce数据,2022年AI服务器出货量86万台,预计2026年AI服务器出货量将超过200万台,年复合增速29%。AI服务器出货量增长催化HBM需求爆发,且伴随服务器平均HBM容量增加,经测算,预期25年市场规模约150亿美元,增速超过50%。   供给端:三大厂产能供不应求,核心工艺变化带来新增量。HBM供给厂商主要聚集在SK海力士、三星、美光三大存储原厂,根据Trendforce数据,2023年SK海力士市占率预计为53%,三星市占率38%、美光市占率9%。HBM在工艺上的变化主要在CoWoS和TSV,配套供应链及国产替代厂商有望受益:1)封测:通富微电、长电科技、太极实业、深科技;2)设备:赛腾股份、中微公司、拓荆科技;3)材料:雅克科技、联瑞新材、壹石通、华海诚科。

2024Week05:算力系列报告(一):AI服务器催化HBM需求爆发,核心工艺变化带来供给端增量-四海认知
2024Week05:算力系列报告(一):AI服务器催化HBM需求爆发,核心工艺变化带来供给端增量
此内容为付费资源,请付费后查看
10积分
付费资源
© 版权声明
THE END
如本文“对您有用”,欢迎随意打赏作者!
点赞10打赏作者 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容