新聞中心

EEPW首頁 > 網(wǎng)絡(luò)與存儲 > 市場分析 > 美光、SK海力士今年HBM已售罄

美光、SK海力士今年HBM已售罄

作者: 時間:2024-02-27 來源:半導(dǎo)體產(chǎn)業(yè)縱橫 收藏

隨著生成式人工智能(AI)市場的爆發(fā),也帶動了 AI 芯片需求的暴漲。AI 芯片龍頭英偉達業(yè)績更是持續(xù)飆升,最新公布的第四財季財報顯示,營收同比暴漲 265% 至 221 億美元,凈利潤同比暴漲 769% 至 122.85 億美元,持續(xù)突破歷史記錄,推動英偉達市值突破 2 萬億美元。

本文引用地址:http://www.butianyuan.cn/article/202402/455734.htm

隨著 AI 芯片需求持續(xù)大漲,作為目前 AI 芯片當中的極為關(guān)鍵的器件,(高帶寬內(nèi)存)也是持續(xù)供不應(yīng)求,存儲大廠積極瞄準 擴產(chǎn)。

其中,三星電子從 2023 年四季度開始擴大 3 的供應(yīng)。此前 2023 年四季度三星內(nèi)部消息顯示,已經(jīng)向客戶提供了下一代 HBM3E 的 8 層堆疊樣品,并計劃在今年上半年開始量產(chǎn)。到下半年,其占比預(yù)計將達到 90% 左右。負責三星美國半導(dǎo)體業(yè)務(wù)的執(zhí)行副總裁 Han Jin-man 則在今年 CES 2024 上表示,三星今年的 HBM 芯片產(chǎn)量將比去年提高 2.5 倍,明年還將繼續(xù)提高 2 倍。

三星官方還透露,公司計劃在今年第四季度之前,將 HBM 的最高產(chǎn)量提高到每月 15 萬至 17 萬件,以此來爭奪 2024 年的 HBM 市場。此前三星電子斥資 105 億韓元收購了三星顯示位于韓國天安市的工廠和設(shè)備,以擴大 HBM 產(chǎn)能,同時還計劃投資 7000 億至 1 萬億韓元新建封裝線。

去年 12 月,美光 CEO Sanjay Mehrotra 對外透露,得益于生成式 AI 的火爆,推動了云端高性能 AI 芯片對于高帶寬內(nèi)存的旺盛需求,美光 2024 年的 HBM 產(chǎn)能預(yù)計已全部售罄。

美光指出,專為 AI、超級計算機設(shè)計的 HBM3E 預(yù)計 2024 年初量產(chǎn),有望于 2024 會計年度創(chuàng)造數(shù)億美元的營收。Mehrotra 對分析師表示,「2024 年 1~12 月,美光 HBM 預(yù)估全數(shù)售罄」。

美光也相信,終端能執(zhí)行 AI 任務(wù)的 PC、移動設(shè)備,對內(nèi)存芯片來說蘊藏極大潛質(zhì)。

Mehrotra 預(yù)測,PC 出貨量在連兩年出現(xiàn)雙位數(shù)跌幅后,有望 2024 年成長 1%~5%。他相信,PC 制造商 2024 下半年擴產(chǎn) AI PC,這些 PC 每臺需要額外 4~8Gb DRAM,固態(tài)硬盤(SSD)需求也會上揚。

Mehrotra 還表示,長期而言,許多熱門生成式 AI 程序的主戰(zhàn)場會是智能手機,美光的產(chǎn)品組合有望抓住這次內(nèi)存及儲存市場潛藏的機會。美光計劃增加 2024 會計年度的資本支出,但高層承諾會「極度節(jié)制」(extremely disciplined)。

繼此前美光宣布今年 HBM 產(chǎn)能全部售罄之后,最新的消息顯示,SK 海力士今年的 HBM 產(chǎn)能也已經(jīng)全部售罄。

雖然整個 2023 年全球半導(dǎo)體市場遭遇了「寒流」,特別是存儲芯片市場更是下滑嚴重。但是,受益于生成式 AI 帶來的需求,面向 AI 應(yīng)用的 DRAM 依然保持了快速的增長。

SK 海力士在 2023 年度財報當中就曾表示,2023 年在 DRAM 方面,公司以引領(lǐng)市場的技術(shù)實力積極應(yīng)對了客戶需求,公司主力產(chǎn)品 DDR5 DRAM 和 HBM3 的營收較 2022 年分別成長 4 倍和 5 倍以上。

近日,SK 海力士副總裁 Kim Ki-tae(金基泰)在一篇博文中表示,今年公司的 HBM 已經(jīng)售罄,已開始為 2025 年做準備。雖然外部不穩(wěn)定因素依然存在,但今年內(nèi)存半導(dǎo)體行業(yè)已開始呈現(xiàn)上升趨勢。全球大型科技客戶對產(chǎn)品的需求正在復(fù)蘇,并且隨著人工智能使用領(lǐng)域的擴大,包括配備自己的人工智能的設(shè)備,如個人電腦和智能手機,對 DDR5、LPDDR5T 以及 HBM3E 等產(chǎn)品的需求預(yù)計會增加。

據(jù)悉,英偉達和 AMD 的下一代人工智能 GPU 預(yù)計將主要搭載 HBM3 內(nèi)存。例如,H100 是第一款支持 PCIe 5.0 標準的 GPU,也是第一款采用 HBM3 的 GPU,最多支持六顆 HBM3,帶寬為 3TB/s,是 A100 采用 HBM2E 的 1.5 倍,默認顯存容量為 80GB。

2023 年 11 月英偉達發(fā)布了新一代 AI GPU 芯片 H200,以及搭載這款 GPU 的 AI 服務(wù)器平臺 HGX H200 等產(chǎn)品。這款 GPU 是 H100 的升級款,依舊采用 Hopper 架構(gòu)、臺積電 4nm 制程工藝,根據(jù)英偉達官網(wǎng),H200 的 GPU 芯片沒有升級,核心數(shù)、頻率沒有變化,主要的升級便是首次搭載 HBM3e 顯存,并且容量從 80GB 提升至 141GB。

得益于新升級的 HBM3e 芯片,H200 的顯存帶寬可達 4.8TB/s,比 H100 的 3.35TB/s 提升了 43%。不過這遠沒有達到 HBM3e 的上限,海外分析人士稱英偉達有意降低 HBM3e 的速度,以追求穩(wěn)定。如果與傳統(tǒng) x86 服務(wù)器相比,H200 的內(nèi)存性能最高可達 110 倍。

AMD 的 MI300 也搭配 HBM3,其中,MI300A 容量與前一代相同為 128GB,更高端 MI300X 則達 192GB,提升了 50%。AMD 稱,MI300X 提供的 HBM 密度最高是英偉達 AI 芯片 H100 的 2.4 倍,其 HBM 帶寬最高是 H100 的 1.6 倍。這意味著,AMD 的芯片可以運行比英偉達芯片更大的模型。

在 HBM 盛行的當下,沒有一家存儲廠商能夠忍住不分一杯羹。



關(guān)鍵詞: HBM

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉