TrendForce 的 HBM 市场研究显示,为了更妥善健全的供应链管理,NVIDIA 也规划加入更多 HBM 供货商,三星(Samsung)HBM3(24GB)预定 12 月完成验证,HBM3e 进度依时间轴排列如下表,美光(Micron)7 月底提供 8hi(24GB)NVIDIA 样品、SK 海力士(SK hynix)8 月中提供 8hi(24GB)样品、三星 10 月初提供 8hi(24GB)样品。
HBM验证过程繁琐,预计耗时两季,TrendForce预期最快年底取得部分厂商HBM3e验证结果,三大原厂均预定2024年第一季完成验证。各原厂HBM3e验证结果将决定最终NVIDIA 2024年HBM供货商采购权重分配,然验证皆未完成,故2024年HBM整体采购量有待观察。
NVIDIA持续扩展AI芯片产品,高阶芯片市场拥最大优势
展望2024年,各AI芯片供货商开案进度,NVIDIA今年高阶AI芯片(采HBM)既有产品为A100 / A800及H100 / H800;2024年组合(Product Portfolio)更细致化分类。除了原上述型号,更推出六颗HBM3e的H200及八颗HBM3e的B100,并同步整合NVIDIA自家基于Arm架构的CPU与GPU,推出GH200及GB200。
同时期AMD与英特尔产品规划,AMD 2024年出货主流为MI300系列,采HBM3,下一代MI350采HBM3e,2024下半年开始HBM验证,实际产品放量(Ramp Up)时间预估应为2025年第一季。
以英特尔Habana来看,2022下半年推出的Gaudi 2采六颗HBM2e,2024年中预期新型号Gaudi 3持续采HBM2e,但用量升级至八颗,TrendForce认为,NVIDIA HBM规格、产品准备度(Readiness)及时间轴,可望持续以领先GPU规格取得AI芯片竞局领先。
HBM4或转至客制化,摆脱Commodity DRAM产品框架
除了HBM3与HBM3e,TrendForce了解,HBM4规划2026年推出,含NVIDIA及其他CSP(云端业者)产品应用,规格和效能优化。受规格往高速发展带动,将首次看到HBM最底层Logic die(又名Base die)采12奈米制程,由晶圆代工厂提供,使单颗HBM产品需结合晶圆代工厂与内存厂合作。
随着客户运算效能要求提升,HBM4堆栈层数除了现有12hi(12层),也再往16hi(16层)发展,更高层数也带动新堆栈方式hybrid bonding需求。HBM4 12hi产品2026年推出;16hi产品2027年问世。
最后TrendForce观察,HBM4各买方开始启动客制化要求,除了HBM可能不再仅排列在SoC主芯片旁边, 亦有部分讨论转向堆栈在SoC主芯片上。虽然所有选项仍在讨论可行性,尚未定案,但TrendForce认为将来HBM产业转至更客制化角度,比其他DRAM产品定价及设计,更能摆脱Commodity DRAM框架,呈特定化的生产。
全部评论