博客專欄

EEPW首頁 > 博客 > AI服務(wù)器需求強勁,HBM龍頭SK海力士今年市占率或達53%

AI服務(wù)器需求強勁,HBM龍頭SK海力士今年市占率或達53%

發(fā)布人:芯智訊 時間:2023-04-20 來源:工程師 發(fā)布文章

4月18日消息,隨著以ChatGPT為代表的生成式AI的持續(xù)火爆,帶動了AI服務(wù)器出貨量的持續(xù)增長,這也使得的HBM(High Bandwidth Memory,高帶寬存儲器)的需求大漲。

NVIDIA定義的DL / ML型AI服務(wù)器平均每臺均需搭載4張或8張高階顯卡,搭配兩顆主流型號x86服務(wù)器CPU,主要采購商來自美系云服務(wù)廠商,包括Google、AWS、Meta與微軟等。據(jù)TrendForce統(tǒng)計,2022年高階搭載GPGPU的服務(wù)器出貨量年增約9%,近80%出貨量集中在全球頭部的八大云服務(wù)業(yè)者。展望2023年,微軟、Meta、百度與字節(jié)跳動相繼推出基于生成式AI衍生產(chǎn)品服務(wù)而積極加單,今年AI服務(wù)器出貨量年增長率有望達到15.4%,2023~2027年AI服務(wù)器出貨量年復(fù)合增長率約12.2%。

隨著AI服務(wù)器需求的增長,也帶動了相關(guān)存儲芯片需求的增長。目前,服務(wù)器DRAM普遍規(guī)格約500~600GB,AI服務(wù)器的單條模組多采用64~128GB容量,單個AI服務(wù)器的平均容量可達1.2~1.7TB。以企業(yè)級SSD來說,AI伺服器追求速度更高,要求優(yōu)先提升DRAM或HBM容量來滿足,SSD容量的提升呈非必要擴大容量態(tài)勢,但傳輸接口會為了高速運算需求,優(yōu)先采用PCIe 5.0接口。相較一般的服務(wù)器,AI服務(wù)器多采用GPGPU來進行運算,因此以NVIDIA A100 80GB配備4或8張加速卡來計算,HBM用量約320~640GB。未來AI模型逐漸復(fù)雜化趨勢下,將刺激更多HBM需求成長。

據(jù)此前《韓國經(jīng)濟日報》報道,受益于ChatGPT的火爆,隨著市場對AI GPU需求劇增,三星、SK海力士的HBM芯片(High Bandwidth Memory,高帶寬存儲器)贏得了額外的訂單,成為目前持續(xù)下滑的存儲芯片市場當中意外增長的品類。

下半年隨著更為高端的NVIDIA H100與AMD MI300的推出,也刺激了HBM產(chǎn)品規(guī)格的更新。據(jù)了解,SK海力士作為目前唯一量產(chǎn)新一代HBM3產(chǎn)品的供應(yīng)商,今年其在整體HBM市場的市占率有望提升至53%。三星、美光也規(guī)劃對應(yīng)規(guī)格的HBM3,將會陸續(xù)在年底至明年初量產(chǎn),它們在HBM市場的市占率分別為38%及9%。

TrendForce的數(shù)據(jù)也顯示,2022 年三大HBM原廠SK海力士、三星、美光的市占率分別為 50%、 40%和近10%。

資料顯示,2021年10月,SK 海力士就宣布成功開發(fā)出HBM3 DRAM 內(nèi)存,是全球首家開發(fā)出新一代高帶寬內(nèi)存(HBM),也是HBM 系列內(nèi)存第四代產(chǎn)品。新一代HBM3 DRAM不僅提供高達819GB/s 的帶寬,還堆疊更多層數(shù)DRAM 以增加容量,提供更廣泛應(yīng)用解決方案。相比上一代的HBM2E(460GB/s),整體帶寬提高了78%。目前,NVIDIA A100加速卡目前使用的是6 顆HBM2E內(nèi)存,提供2TB/s 帶寬。一旦換成HBM3 規(guī)格,帶寬最高可提高到4.9TB/s,顯存容量也提升至最高144GB。


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉