撰文 | 田小夢
編輯 | 李信馬
題圖 | IC Photo
得益于AI算力的需求,HBM成為香餑餑。
近日據韓國 Chosun Biz報道,NVIDIA已經向SK海力士、美光,交付了700億至1萬億韓元的預付款。雖然預付款未作具體說明,但業界普遍認為是NVIDIA為保證今年要上市的GPU產品相應所需HBM3E的物量供應。
同樣在需求激增的市場環境下,存儲三大巨頭也在爭相推進HBM生產。近期,三星、SK海力士正計劃將HBM產量提高至2.5倍,美光則將在今年推出8層堆疊的AI專用HBM3E內存。對于HBM4,這三家企業也是當仁不讓,相繼確認開發和正式推出的時間。
TrendForce預估,2024年全球HBM的位元供給有望增長105%;HBM市場規模也有望于2024年達89億美元,同比增長127%;預計至2026年市場規模將達127.4億美元,對應CAGR約37%。
一、是誰在推動HBM市場?
HBM(High Bandwidth Memory,高頻寬存儲器)是一種基于3D堆棧工藝的高性能DRAM,通俗來講,就是先將很多DDR芯片堆疊在一起后,再與GPU封裝在一塊。正是基于Interposer中介層互聯實現了近存計算,以及TSV工藝的堆疊技術,讓HBM打破了內存帶寬及功耗瓶頸,成為AI訓練硬件的首選。
其實HBM應用已有幾年的時間,自2014年首款硅通孔HBM產品問世至今,HBM技術已經發展到第五代,其中HBM3E是HBM3的擴展版本,依次類推,HBM4將是第6代產品。從HBM內存的演變來看,最新的HBM3帶寬、堆疊高度、容量、I/O速率等較初代均有多倍提升。
圖源:Rambus
這也恰恰是AI算力所需要的。
根據OpenAI的數據,自2012年以來,最大規模的AI訓練所使用的計算量以每年10倍的速度增長。OpenAI的ChatGPT充分體現了AI訓練數據集的增長。2022年11月發布的GPT-3,使用1750億個參數構建,去年3月發布的GPT-4使用超過1.5萬億個參數。
面對這波AI浪潮, NVIDIA 創始人兼首席執行官黃仁勛曾表示:“大語言模型初創公司、消費互聯網公司和全球云服務提供商都已率先行動起來,下一波浪潮蓄勢待發。”當然,算力作為人工智能中關鍵一環,人工智能芯片供應商扮演著重要角色。
NVIDIA2023年的高端AI陣容使用HBM,包括A100/A800和H100/H800等型號。此外,NVIDIA還再進一步完善其產品組合,發布了配備HBM3E內存的H200 GPU以及GH200超級芯片,相關系統預計將于今年第二季度上市。據了解,以GH200超級芯片為例,HBM3E內存比當前HBM3快50%,可提供總計10TB/s的帶寬,這使得NVIDIA GH200 Grace Hopper平臺能夠運行比上一版本大3.5倍的模型,同時憑借快3倍的內存帶寬提升性能。
與NVIDIA“神仙打架”的AMD,在去年12月“Advancing AI”活動上,正式發布了AI旗艦GPU加速器AMD Instinct MI300X,更是宣稱性能比英偉達的H100高出60%。據了解,MI300X采用HBM3內存,容量最高192GB,比前代MI250X(128 GB)高50%。該內存將提供高達5.3TB/s的帶寬和896 GB/s的Infinity Fabric帶寬。
同樣想分AI一杯羹的,還有英特爾。據外媒報道,英特爾計劃2024年發布Gaudi 3,配備最高128GB的HBM3E RAM,大幅提升AI學習和訓練性能。
誰能成為NVIDIA的替代者,還需要市場的反饋。
毋庸置疑的是,這場AI競爭需要極高的算力需求,但因產能受限,供不應求成為現狀,進而使HBM價格高增,HBM市場規模高速增長。
圖源:方正證券
方正證券報告指出,從成本端來看,HBM平均售價至少是DRAM三倍;而此前受ChatGPT的拉動同時受限產能不足,HBM價格一路上漲,與性能最高的DRAM相比,HBM3的價格上漲了五倍。
二、HBM市場三分天下
在NVIDIA、AMD、英特爾三家互搏的同時,存儲廠商也沒有閑著,生產/擴產成主旋律。
從2013年宣布成功研發HBM1,到2019年開發出世界最快的高帶寬存儲器HBM2E,再到2021年10月開發出全球首款HBM3 DRAM,再到去年開發出全球最高規格HBM3E,SK海力士一直是HBM行業的領軍企業。
值得關注的是,SK海力士2023年第一季度由盈轉虧的DRAM僅在兩個季度后扭虧為盈。
SK海力士解釋道:“因高性能半導體存儲器產品為中心的市場需求增加,公司業績在第一季度低點過后持續改善,特別是面向AI的代表性存儲器HBM3、高容量DDR5 DRAM和高性能移動DRAM等主力產品的銷售勢頭良好,與上季度相比營業收入增長24%,營業損失減少38%。”SK海力士表示,將以第四代10納米級(1a)和第五代10納米級(1b)DRAM為中心的生產線轉換,同時擴大對HBM TSV1技術的投資。
圖源:SK海力士財報
據悉,SK海力士已決定在2024年預留約10萬億韓元(約合76億美元)的設施資本支出聚焦于為高附加值DRAM芯片擴建設施,包括HBM3、DDR5及LPDDR5,以及升級HBM的TSV先進封裝技術兩方面。SK海力士首席執行官Jeong-ho Park透露,預計到2030年公司HBM出貨量將達到每年1億顆。
此外,SK海力士在公司年度高層改組中,新成立的AI基礎設施部門將整合分散在公司內部的高帶寬內存(HBM)能力。該部門還將主導新一代HBM芯片等人工智能技術的發展,尋找并開發新市場。不難看出,SK海力士對HBM的高期望。
以TrendForce報告統計數據為參考,2022年SK海力士占據了HBM全球市場規模的50%,三星緊隨其后,占比為40%。
二者皆得益于存儲市場回暖的影響,從三星電子去年第三季度財報數據來看,出現了復蘇的跡象。數據顯示,三星電子第三季度存儲業務環比增長17%至10.53萬億韓元,存儲業務所在的DS部門經營虧損3.75萬億韓元,但較上季度經營虧損4.36萬億韓元有所減少。
圖源:三星財報
面向未來存儲市場增長的預期,三星電子收購了三星顯示(Samsung Display)天安廠區內部分建筑及設備,用于HBM生產。三星電子計劃在天安廠建立一條新封裝線,用于大規模生產HBM,預計投資7000億-1萬億韓元。同時,三星正在投入8層、12層HBM3量產,并開始供應8層HBM3E樣品。
據悉,之前英偉達的HBM一直由SK海力士獨家供應,由于需求極為龐大,三星據稱也已通過質量評估,即將加入供應商隊列。也有消息稱,三星電子計劃從今年1月開始向英偉達供應HBM3。
對2023年HBM市場份額,TrendForce預測,SK海力士和三星的HBM份額占比約為46-49%。這一數據也凸顯出,SK海力士和三星的勢均力敵。
如果說三分HBM市場的“天下”,最后一家企業則是美光(Micron)。美光雖然2022年市場份額僅為10%,但也不甘于落后。美光科技臺中四廠正專攻HBM生產,計劃將于今年量產第五代HBM3E產品。
就供應鏈而言,業界預測,這三家公司將為英偉達即將推出的H200和B100所需的HBM3E供應展開激烈競爭。
小結
智能語音、ChatGPT、智能駕駛等智能化應用逐漸滲透到我們的生活中,帶來了巨大的存儲芯片需求。去年下半年存儲芯片市場價格的反彈信號,讓行業人士看到“曙光”。
從存儲產業鏈看,SK海力士、三星等大廠采用IDM模式,一手包辦了芯片的設計、制造和封測。而國內市場,存儲產業鏈還是比較邊緣,主要處于HBM上游設備和材料供應環節。但國內相關HBM概念股也有所受益。有消息稱,相關廠商也在積極布局高端存儲產品,以求適應市場需求和技術演進。