HBM:SK海力士、三星、美光三分天下。

半導體產業步入下行周期之際,2023年ChatGPT的『走紅』為產業帶來新的發展方向:AI人工智能。

ChatGPT正掀起一場聲勢浩大的AI浪潮,AI時代下,為滿足海量數據存儲以及日益增長的繁重計算要求,半導體存儲器領域也迎來新的變革,HBM技術從幕後走向臺前,未來前景可期。

突破『內存墻』瓶頸,HBM應運而生

HBM《High Bandwidth Memory》即高帶寬存儲器,按照JEDEC的分類,HBM屬於圖形DDR內存的一種,其通過使用先進的封裝方法《如TSV矽通孔技術》垂直堆疊多個DRAM,並與GPU封裝在一起。

HBM:SK海力士、三星、美光三分天下。
HBM通過矽通孔技術實現垂直堆疊 圖片來源:美光科技

存儲器與處理器性能差異正隨時間發展逐漸擴大,當存儲器訪問速度跟不上處理器數據處理速度時,存儲與運算之間便築起了一道『內存墻』。

而隨著人工智能、高性能計算等應用市場興起,數據爆炸式增長之下,『內存墻』問題也愈發突出。

為此,業界希望通過增加存儲器帶寬解決大數據時代下的『內存墻』問題,HBM便應運而生。

存儲器帶寬是指單位時間內可以傳輸的數據量,要想增加帶寬,最簡單的方法是增加數據傳輸線路的數量。

據悉,典型的DRAM芯片中,每個芯片有八個DQ數據輸入/輸出引腳,組成DIMM模組單元之後,共有64個DQ引腳。

而HBM通過系統級封裝《SIP》和矽通孔《TSV》技術,擁有多達1024個數據引腳,可顯著提升數據傳輸速度。

HBM技術之下,DRAM芯片從2D轉變為3D,可以在很小的物理空間裡實現高容量、高帶寬、低延時與低功耗,因而HBM被業界視為新一代內存解決方案。


圖表:全球半導體觀察整理 資料來源:SK海力士

自2014年首款矽通孔HBM產品問世至今,HBM技術已經發展至第四代,分別是:HBM《第一代》、HBM2《第二代》、HBM2E《第三代》、HBM3《第四代》,HBM芯片容量從1GB升級至24GB,帶寬從128GB/s提升至819GB/s,數據傳輸速率也從1Gbps提高至6.4Gbps。

ChatGPT效應下,HBM需求持續看漲

與傳統DRAM相比,HBM具備高帶寬、高容量、低延時與低功耗等優勢,可以加快AI數據處理速度,更適用於ChatGPT等高性能計算場景。

當前ChatGPT等AIGC《生成式人工智能》模型需要使用AI服務器進行訓練與推理,其中訓練側AI服務器基本需要采用中高端GPU,如Nvidia A100/H100等,在這些GPU中,HBM的滲透率接近100%;而推理側AI服務器盡管目前采用中低端GPU,HBM滲透率不高,不過隨著AIGC模型逐漸復雜化,未來推理側AI服務器采用中高端GPU將是發展趨勢,未來這一領域的HBM滲透率也將快速提升。

ChatGPT風靡之下,AI效應正持續發酵,並不斷滲透雲端/電商服務、智能制造、金融保險、智慧醫療及智能駕駛輔助等各行各業,AI服務器與高端GPU需求不斷上漲,並有望持續推動HBM市場成長。

全球市場研究機構TrendForce集邦咨詢預估2023年AI服務器《包含搭載GPU、FPGA、ASIC等》出貨量近120萬臺,年增38.4%,占整體服務器出貨量近9%。

其中,NVIDIA GPU為AI服務器市場搭載主流,市占率約60~70%。

從高端GPU搭載的HBM來看,NVIDIA高端GPU H100、A100主采HBM2e、HBM3。

以今年H100 GPU來說,搭載HBM3技術規格,其中傳輸速度也較HBM2e快,可提升整體AI服務器系統運算效能。

隨著高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,集邦咨詢預估2023年HBM需求量將年增58%,2024年有望再成長約30%。

HBM市場格局:SK海力士、三星、美光三分天下

HBM是新一代內存解決方案,其市場被三大DRAM原廠牢牢占據。

集邦咨詢調查顯示,2022年三大原廠HBM市占率分別為SK海力士50%、三星約40%、美光約10%。

公開資料顯示,SK海力士是HBM市場的先行者,也是全面佈局四代HBM的廠商。

2014年,SK海力士與AMD聯合開發第一代矽通孔HBM產品;2018年SK海力士發佈第二代HBM產品HBM2;隨後2020年SK海力士發佈第三代HBM——HBM2E,作為HBM2的擴展版本,性能與容量進一步提升;2021年10月SK海力士成功開發出第四代產品HBM3,並於2022年6月開始量產,今年4月,該公司進一步宣佈,已經全球率先研發出12層堆疊的HBM3內存,單顆容量可達24GB。

三星對HBM的佈局從HBM2開始,目前,三星已經向客戶提供了HBM2和HBM2E產品。

2016年三星量產HBM2;2020年三星推出了HBM2;2021年2月,三星推出了HBM-PIM《存算一體》,將內存半導體和AI處理器合二為一;2022年三星表示HBM3已量產。

另據媒體報道,三星已於今年4月26日向韓國專利信息搜索服務提交『Snowbolt』商標申請,預估該商標將於今年下半年應用於DRAM HBM3P產品。

美光進軍HBM相對較晚,相關產品公開報道不多。

2020年美光表示將開始提供HBM2產品,用於高性能顯卡,服務器處理器產品。

另據業界透露,美光亦在發力最新HBM3產品。

集邦咨詢指出,2023下半年伴隨NVIDIA H100與AMD MI300的搭載,三大原廠也已規劃相對應規格HBM3的量產。

其中,在今年將有更多客戶導入HBM3的預期下,SK海力士作為目前唯一量產新世代HBM3產品的供應商,其整體HBM市占率可望藉此提升至53%,而三星、美光則預計陸續在今年底至明年初量產,HBM市占率分別為38%及9%。

結語

當然,對於新一代內存解決方案而言,HBM並非十全十美,現階段HBM成本高昂,這就意味著該項技術暫時隻能在服務器等高端領域應用,此外由於和主芯片封裝在一起,出廠已經確定規格,難以進行容量擴展,因此在服務器等領域,會出現HBM+DDR搭配使用的方案。

不過總體而言,在ChatGPT、人工智能訓練和推理以及高性能計算等助力下,市場需要更多極速內存,HBM未來很長的時間內都將大有用武之地。