News Detail

全球HBM战局打响!

5
Issuing time:2024-03-07 08:30Author:glochip.comSource:www.globalizex.com/news/Link:https://www.glochip.com/news/
文章附图

AI服务器浪潮席卷全球,带动AI加速芯片需求。DRAM关键性产品HBM异军突起,成为了半导体下行周期中逆势增长的风景线。业界认为,HBM是加速未来AI技术发展的关键科技之一。

近期,HBM市场动静不断。先是SK海力士、美光科技存储两大厂释出2024年HBM产能售罄。与此同时,HBM技术再突破、大客户发生变动、被划进国家战略技术之一...一时间全球目光再度聚焦于HBM。

1
HBM:三分天下

HBM(全称为High Bandwidth Memory),是高带宽存储器,是属于图形DDR内存的一种。从技术原理上讲,HBM是将很多个DDR芯片堆叠在一起后,再和GPU封装合成,通过增加带宽,扩展内存容量,组成DDR组合阵列,以此实现让更大的模型、更多的参数留在离核心计算更近的地方,从而减少内存和存储解决方案所带来的延迟。


图片来源:SK海力士官网

通俗来讲,传统DDR内存芯片是一层平房结构,具备HBM结构的内存是现代化的摩天大楼,在占地面积不变的基础上,向三维高度发展。

与传统DRAM芯片相比,HBM具有高带宽、高容量、低延时与低功耗等优势,可以加快AI数据处理速度。业界指出,HBM可以将专用数据处理器直接集成在DRAM中,将部分数据计算工作从主机处理器转移到存储器当中,从而满足AI芯片训练的高宽带要求,也因此更适用于ChatGPT等高性能计算场景。

目前,HBM市场高度集中,呈现三足鼎立的态势。此前据TrendForce集邦咨询研究显示,2022年三大原厂HBM市占率分别为SK海力士(SK hynix)50%、三星(Samsung)约40%、美光(Micron)约10%。


图片来源:拍信网

从技术迭代上看,自2014年全球首款硅通孔(TSV, Through Silicon Via)HBM产品问世以来,HBM已经从HBM、HBM2、HBM2E,发展至被业界认为即将成为市场主流的HBM3、HBM3E。未来或将到达HBM4,甚至HBM4E。


图表来源:全球半导体观察制表

2
大厂冲锋,HBM3E扛技术大旗

从存储大厂HBM布局路线来看,率先走在起跑线上的是SK海力士。2013年,SK海力士与AMD合作开发了全球首款HBM。作为领跑者,SK海力士不负众望陆续成功研发出HBM迭代产品HBM2、HBM2E、HBM3、HBM3E。该公司计划在2024年上半年将HBM3E投入量产。

三星则从HBM2起跑,虽是后起之军,却也不堪落后。三星于2016年推出HBM2,2020年2月HBM2E,2021年2月推出了HBM-PIM(存算一体),实现内存半导体和AI处理器合二为一,其HBM3也于2020年量产。今年2月27日三星发布了首款36GB HBM3E 12H DRAM,这是三星目前为止容量最大的HBM产品。目前,三星已开始向客户提供HBM3E 12H样品,预计于今年下半年开始大规模量产。

另一大厂美光科技开始出击,该公司选择跳过第四代HBM3,直接布局第五代HBM3E。美光于2023年9月推出HBM3E,并于今年2月26日宣布已开始批量生产HBM3E解决方案。其中24GB 8-High HBM3E将成为NVIDIA H200 Tensor Core GPU的一部分,该GPU将于 2024 年第二季度开始发货;而36GB 12-High HBM3E样品扩大了其领先地位,与竞争解决方案相比,该产品预计将提供超过1.2 TB/s的性能。


图表来源:全球半导体观察制表

从规格上看,目前HBM市场主流为HBM2E,包含NVIDIA A100/A800、AMD MI200以及多数CSPs自研加速芯片皆以此规格设计。不过随着各大原厂不断加速突破技术堡垒,业界称未来HBM3与HBM3E将挑起大梁。

TrendForce集邦咨询预估,2024年HBM供给情况可望大幅改善。以规格而言,伴随AI芯片需要更高的效能,HBM主流也将在2024年移转至HBM3与HBM3E。整体而言,在需求位元提高以及HBM3与HBM3E平均销售价格高于前代产品的情形下,2024年HBM营收可望有显著的成长。

此外,关于业界十分关心的HBM4问题,据TrendForce集邦咨询预计,HBM4有望于2026年推出。目前包含NVIDIA以及其他CSP(云端业者)在未来的产品应用上,规格和效能将更优化。例如,随着客户对运算效能要求的提升,HBM4在堆栈的层数上,除了现有的12hi (12层)外,也将再往16hi (16层)发展,更高层数也预估带动新堆栈方式hybrid bonding的需求。HBM4 12hi产品将于2026年推出;而16hi产品则预计于2027年问世。

3
大头客户策略有变,或牵动HBM

AI模型复杂化正推动HBM发展。从应用领域看,HBM主要应用领域AI服务器在单条模组上则多采用64~128GB,平均容量可达1.2~1.7TB之间。TrendForce集邦咨询认为,相较于一般服务器而言,AI服务器多增加GPGPU的使用,因此以NVIDIA A100 80GB配置4或8张计算,HBM用量约为320~640GB。未来在AI模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动Server DRAM、SSD以及HBM的需求成长。并预期AI服务器2023~2027年出货量年复合成长率约12.2%。

从大头客户产品规格来看,AI服务器GPU市场中配备了HBM的主要以NVIDIA H100、A100、A800以及AMD MI250、MI250X系列为主。展望2024年,英伟达的产品所采用的HBM将升级至HBM3E,此外新一代B100产品将进一步拉升市场对HBM的容量需求;AMD产品仍采用HBM3,预计下一代MI350将升级为HBM3E;而英特尔产品仍将使用HBM2E。

具体来看,自去年发酵至今,HBM市场仍旧火热,而上游关键客户英伟达的H100与200依旧是市面上最抢手的GPU产品。据TrendForce集邦咨询最新预估,以2024年全球主要云端服务业者(CSP)对高端AI服务器(包含搭载NVIDIA(英伟达)、AMD或其他高端ASIC芯片等)需求量观察,搭载NVIDIA GPU的AI服务器机种占大宗。

根据去年11月底TrendForce集邦咨询的研究数据显示,2023年,NVIDIA高端AI芯片(采用HBM)既有产品包括A100/A800以及H100/H800,2024年该公司将再推出使用6颗HBM3E的H200以及8颗HBM3E的B100,并同步整合NVIDIA自家基于Arm架构的 CPU与GPU,推出GH200以及GB200。

TrendForce集邦咨询最新研究指出,NVIDIA 2024年起将正式替换A100产品,而以价格更高的H100系列为主轴。除H100,预估自今年第二季末开始小量出货搭载更高HBM3E规格的H200产品。另预估NVIDIA未来在价格上将更积极采差别订价,H100采部分折价策略,H200应维持约H100原价格水位,以提供更高性价比方式,稳固云端CSP客户。除此之外,NVIDIA将采用NRE(一次性工程费用;Non-recurring engineering Expense)模式,与Meta、Google、AWS及OpenAI等厂商展开洽谈,并将目标扩及电信、车用及电竞客户。

TrendForce集邦咨询预期,NVIDIA自2024年下半年将推出新一代B100产品,相较H系列可望在效能上又有所提升,在HBM存储器容量将高出H200约35~40%,以应对更高效能HPC或加速LLM AI训练需求。而在中低端产品上,除L40S针对企业客户做边缘端较小型AI模型训练或AI推理外,另亦规划以L4取代既有T4,作为云端或边缘AI推理应用。

值得注意的是,为避免2023年GPU供应不足问题,NVIDIA亦积极参与CoWoS及HBM等扩建产能需求,预期今年第二季在相关原厂产能逐步开出后,原交付Lead Time平均约40周也将减半,逐步去除下游供应链因GPU短缺而使AI服务器供应进度受阻问题。

在AMD和Intel方面,TrendForce集邦咨询此前指出,AMD 2024年出货主流为MI300系列,采用HBM3,下一代MI350将采用HBM3E,预计2024下半年开始进行HBM验证,实际看到较明显的产品放量(Ramp Up)时间预估应为2025年第一季。Intel Habana 2022下半年推出的Gaudi 2采用6颗HBM2E,2024年中预期在新型号Gaudi 3持续采取HBM2E,但将用量升级至8颗。

4
列为国家战略,韩国重点发力

存储器是韩国的支柱型产业之一,2024年AI浪潮更顺势拉动了HBM的市场比重,在此背景下,韩国将HBM指定为国家战略技术,并列出多项措施鼓励相关企业。

2月27日,韩国企划财政部公布了《2023年税法修正案后续执行规则修正案草案》,旨在对被纳入韩国国家战略技术的高带宽存储器(HBM)、有机发光二极管(OLED)和氢相关设施,进一步扩大税收支持。

其中,韩国国家战略性技术产业研发投资税收抵免,中小企业为40%至50%,大中型企业为30%至40%。据悉大中型企业包括三星、SK海力士等。

5
结语

值得一提的是,大厂财报透露,营收亏损幅度均有所收窄,其中HBM已成为拉动大厂们业绩回升的主力。目前消费电子已出现复苏信号,行业新的转机正在孕育生成,AI催生存力新需求,2024年存储市场有望迎来新的转机。

总体而言,受生成式AI大模型等领域的驱动,HBM逐渐发展成为新兴热门产业之一,随着上游客户不断发出新的需求,目前HBM市场正释放出供不应求的信号。对此,上述各方瞄准HBM积极布局,大厂们继续埋头攻破技术壁垒,以迅速抓住市场新机遇,属于HBM市场的一场争夺战正式开启。


Home                                    Product                                        News                                   About                                        Contact
Tel: +86-0755-84866816  
Tel: +86-0755-84828852
Mail:  kevin@glochip.com
Web:  www.chip.com.hk
Rm401.1st Building, Dayun software Longgang Avenue, Longgang district,Shenzhen
Samsung Micron SKhynix Kingston Sandisk  Kioxia Nanya Winbond MXIC ESMT Longsys Biwin HosgingGlobal  BoyaMicro  Piecemakers Rayson  Skyhigh  Netsol

SRAM MRAM SDRAM DDR1 DDR2 DDR3 DDR4 DDR5 LPDDR3 LPDDR4 LPDDR4X LPDDR5 LPDDR5X NAND NOR eMMC UFS eMCP uMCP SSD Module