新聞中心

EEPW首頁 > 智能計算 > 市場分析 > AI服務器:供應鏈的救世主

AI服務器:供應鏈的救世主

作者: 時間:2023-06-15 來源:半導體產(chǎn)業(yè)縱橫 收藏

強勁的財務報告揭示了人工智能對科技行業(yè)的真正影響,尤其是在人工智能服務器供應鏈中。

本文引用地址:http://butianyuan.cn/article/202306/447694.htm

人工智能驅(qū)動的需求激增促使研究機構(gòu)修改了他們的估計。據(jù)行業(yè)研究公司 TrendForce 預測,2023 年 AI 服務器(包括搭載 GPU、FPGA、ASIC 等)的出貨量預計將達到近 120 萬臺,同比增長 38.4%,占服務器總出貨量的近 9%。TrendForce 甚至將 2022 年至 2026 年 AI 服務器出貨量復合年增長率上調(diào)至 29%。

那么,AI 服務器與傳統(tǒng)服務器的區(qū)別是什么?

AI 服務器確實是整個服務器市場的一部分,但它們是專門為基于云的 AI 模型訓練或推理而設(shè)計的。在規(guī)格方面,廣義的 AI 服務器是指搭載 AI 芯片(如前面提到的 GPU、FPGA、ASIC)的服務器,而狹義的定義則包括至少搭載一塊 GPU 的服務器。

AI 服務器成為 2023 年行業(yè)「救世主」的原因有兩方面。首先,今年以來各終端市場表現(xiàn)明顯疲軟,就連此前穩(wěn)定的服務器市場也出現(xiàn)了低迷。對昂貴的 AI 服務器的需求激增不僅引起了轟動,還直接推動了整個行業(yè)的收入增長。

據(jù) TrendForce 預估,今年 AI 服務器出貨量將占服務器市場總出貨量的 9%,預計到 2026 年將達到 15%。單價方面,AI 服務器的價格約高出 15 至 20 倍。云服務提供商傳統(tǒng)上使用的服務器。對計算能力、電源管理和改進的冷卻技術(shù)的需求增加直接促進了服務器組件的使用。

說到 AI 服務器的關(guān)鍵部件,包括 GPU、CPU、內(nèi)存、智能網(wǎng)卡、機箱、主板、散熱系統(tǒng)、電源、組裝測試等。從成本角度來看,GPU 仍然是最關(guān)鍵的部分,約占總成本的 70%,而散熱系統(tǒng)、電源和外殼等組件所占比例不到 1%。

雖然 GPU 龍頭供應商在成本上是最大贏家,但元器件使用量增加、規(guī)格與技術(shù)升級,仍讓臺系供應鏈獲益,在服務器產(chǎn)業(yè)扮演重要角色。

從上游產(chǎn)業(yè)來看,最大的受益者是為代工的臺積電。電源供應器方面,AI 服務器的需求較以往高出兩至三倍,這無疑為臺達、光寶等電源供應器廠商帶來利好消息。

雖然冷卻系統(tǒng)占總成本的比例不到 1%,但它們對 AI 服務器的運行至關(guān)重要,促使主要服務器供應商在該領(lǐng)域投入巨資。目前,AI 服務器散熱解決方案的領(lǐng)先供應商包括 Auras Technology、AVC Technology 和 Sunon,它們提供 3D Vapor Chamber (VC) 技術(shù)。在組裝和制造方面,主要參與者是廣達、英業(yè)達、富士康、緯創(chuàng)、Wiwynn、AMD 和技嘉等傳統(tǒng)服務器供應商。

TrendForce 分析師 Frank Gong 表示,近年來,服務器行業(yè)不斷走向標準化,服務器供應商也面臨來自客戶的壓力,要求其供應鏈多元化。然而,隨著人工智能服務器需求的大幅增長,不僅帶動了收入增長,也為企業(yè)提供了展示其在人工智能服務器領(lǐng)域技術(shù)優(yōu)勢的機會。此外,人工智能服務器設(shè)計的高復雜度和定制化需求的大幅上升,使得客戶粘性得到提升,受到供應鏈的歡迎和期待。

推理型服務器將逐漸成為全球 AI 服務器的主流。在生成式大模型發(fā)展早期,AI 服務器需求以模型訓練為主,因而訓練型服務器占據(jù)市場主體地位。隨著后續(xù)生成式 AI 應用的快速發(fā)展,AI 服務器將主要滿足數(shù)據(jù)的分析及模型輸出需求,因而推理型服務器將逐漸成為市場主流。根據(jù) IDC 統(tǒng)計,2021 年全球 AI 服務器市場中 57.33%為訓練型服務器,但預計在 2024 年推理型服務器市場規(guī)模將首次超越訓練型服務器,在 2026 年推理型服務器的市場占比將達到 53.01%,與訓練型服務器的份額差距將持續(xù)拉開。

加速計算 AI 服務器更符合大規(guī)模 AI 運算的需求,成為 AI 服務器的主流選擇。加速計算 AI 服務器是指擁有一個或多個協(xié)處理器的 AI 服務器,包括 GPGPU、FPGA 或 ASIC 協(xié)處理器,其更適合處理規(guī)模越來越大、算法越來越復雜的深度學習 AI 模型,因而已經(jīng)成為目前 AI 服務器的主流選擇。主要使用 CPU 進行運算的非加速計算 AI 服務器的市場規(guī)模仍將有一定增長,但其主要用于小型人工智能模型的推理以及部分訓練負載。根據(jù) IDC 統(tǒng)計,2021 年全球 AI 服務器中加速計算 AI 服務器市場規(guī)模為 91 億美元,2026 年將增長至 245 億美元,期間年復合增速為 22%,同期非加速計算的 AI 服務器市場規(guī)模的年復合增速僅為 9.3%。



關(guān)鍵詞: 英偉達 AI服務器

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉