新聞中心

EEPW首頁 > 智能計算 > 市場分析 > AI服務器爆火,這些芯片賽道進入狂歡期

AI服務器爆火,這些芯片賽道進入狂歡期

作者: 時間:2024-05-22 來源:半導體產業(yè)縱橫 收藏

在當今社會,人工智能的應用場景愈發(fā)廣泛,如小愛同學、天貓精靈等 AI 服務已深入人們的生活。隨著人工智能時代的來臨,AI 服務器也開始在社會各行業(yè)發(fā)揮重要作用。那么,AI 服務器與傳統(tǒng)服務器相比,究竟有何獨特之處?為何 AI 服務器能在人工智能時代中逐漸取代普通服務器,成為主流呢?

本文引用地址:http://butianyuan.cn/article/202405/459022.htm

AI 服務器與傳統(tǒng)服務器的區(qū)別

AI 服務器和傳統(tǒng)服務器之間有顯著的區(qū)別。

AI 服務器是一種專門設計用于執(zhí)行人工智能、機器學習(ML)、深度學習(DL)等計算密集型任務的高性能服務器。它可以通過收集數據、分析數據和模擬數據來學習如何有效地運行服務器,也可以根據不同的應用程序和用戶請求來調整服務器的性能,從而提供更好的服務器性能。

而傳統(tǒng)服務器雖然也可以處理大量數據,但是需要人工干預來提高服務器性能。


從服務器的硬件架構來看,AI 服務器通常配備有高效能的中央處理器(CPU)、圖形處理器(GPU)、張量處理器(TPU)或專用的 AI 加速器,以及大量的內存和存儲空間。在異構方式上,AI 服務器可以為 CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC 或 CPU+多種加速卡。

目前,產品中最常見的是 CPU+多塊 GPU 的方式。具體的設計和配置可以根據需要進行大量并行處理的具體任務來進行調整。

傳統(tǒng)服務器主要以 CPU 為算力提供者,但是在運作的過程中需要引入大量分支跳轉中斷處理,這使得 CPU 的內部結構復雜,并不能滿足 AI 時代的需求。

AI 服務器的主要優(yōu)勢:

大數據處理:AI 服務器能夠處理和分析大量數據,這是訓練 AI 和 ML 模型的關鍵。

并行計算:由于 AI 和 ML 算法需要對大量數據進行復雜的計算,AI 服務器通常使用可以并行處理大量數據的硬件,如 GPU。

存儲和內存:AI 服務器通常具有大量的存儲空間和內存,以便存儲和處理大量的數據。

網絡能力:AI 服務器需要高速和低延遲的網絡連接,以便快速傳輸大量的數據。

事實上,這也正是大模型熱潮之后,AI 服務器搶購潮涌現(xiàn)的原因所在。大模型內部蘊含的數據參數極其龐大,無論是訓練還是運行,都需要更強大的計算資源來支撐。因此,為了滿足這種需求,高性能的 AI 服務器變得至關重要,從而引發(fā)了搶購熱潮。

呈現(xiàn)在具體應用中,AI 服務器廣泛應用于深度學習、高性能計算、醫(yī)療、搜索引擎、游戲、電子商務、金融、安全等行業(yè)。比如在醫(yī)學圖像智能分析應用中,AI 服務器可以通過機器視覺、知識地圖、深度學習等人工智能技術,模擬醫(yī)學專家思維、推理診斷,幫助醫(yī)生定位疾病,協(xié)助診斷;在安全監(jiān)控的應用中,AI 服務器可以應用于人體分析、圖像分析、車輛分析、行為分析等安全場景。

AI 服務器的兩大類別

按照 AI 應用場景的需求,AI 服務器主要分為兩類:深度學習訓練型和智能應用推理型。

訓練任務對服務器算力要求較高,需要訓練型服務器提供高密度算力支持;推理任務則是利用訓練后的模型提供服務,對算力無較高要求。

簡單來說,訓練過程就是一個學習的過程,訓練是一個搜索和求解模型最優(yōu)參數的階段; 推理是將深度學習訓練成果投入使用的過程,即模型參數已經求解出來,使用和部署模型階段。

根據使用需求的不同,不同 AI 服務器對 GPU 的采用也不同。

訓練階段要求 GPU 具有強大的計算能力和高存儲帶寬,以應對大規(guī)模的數據處理和復雜的數學運算。因此,在選擇用于訓練階段的 GPU 時,通常需要關注其性能、功耗、可靠性和軟件兼容性等方面。具有高頻率、多核心和大顯存的 GPU 產品通常更適合訓練階段的需求。拿英偉達來說,訓練時可以選 A100V100A800 等顯卡。

推理階段主要關注的是模型的快速響應和準確輸出。這一階段的計算量相對較小,但要求 GPU 能夠快速且穩(wěn)定地執(zhí)行預訓練好的模型。因此,推理階段對 GPU 的需求更注重其穩(wěn)定性和能效比。英偉達的 P4、T4、A10 等顯卡,更適合推理階段的需求。

AI 服務器出貨量激增

AI 服務器作為算力的發(fā)動機,算力需求的增長將迎來 AI 服務器需求的快速增長。

據 IDC 統(tǒng)計,2023 年全球 AI 服務器市場規(guī)模預計為 211 億美元,2025 年將達到 17.9 億美元,2023-2025 年 CAGR 為 22.7%。出貨量方面,根據 TrendForce 數據,2023 年 AI 服務器出貨量逾 120 萬臺,占據服務器總出貨量的近 9%,年增長達 38.4%。預計 2026 年,AI 服務器出貨量為 237 萬臺,占比達 15%,復合年增長率預計保持 25%。



再看中國市場,IDC 預計 2023 年中國 AI 服務器市場規(guī)模將達到 91 億美元,同比增長 82.5%;2027 年將達到 134 億美元,年均復合增長率為 21.8%。主要原因是國內各大廠商紛紛布局 AI 服務器產業(yè),升級產品技術規(guī)格。處理器方面,浪潮信息產品主要通過搭建四代英特爾 CPU+英偉達 H800GPU 超高算力組合,華為的昇騰系列和鯤鵬系列服務器主要搭載自研鯤鵬處理器及昇騰處理器,中科可控搭載海光處理器滿足算力需求。此外,廠商普遍配置有 32 個 DDR4 內存插條和 SAS/SATA 硬盤,以及支持 0/1/10/5/50/6/60RAID。

計算芯片和存儲是服務器的核心構成,在 AI 服務器發(fā)展如日中天的當下,計算芯片和存儲自然而然跟隨著 AI 服務器的步伐走上快車道。

這些芯片賽道,進入狂歡期

國產 CPU 迎來發(fā)展好時機

上文提到,如今的算力芯片通常是 CPU+多塊 GPU 的方式。

當下主流的服務器 CPU 架構包括 X86、ARM、MIPS 和 RISC-V 等。其中 X86 架構處理器統(tǒng)治著 PC 和服務器市場,Arm 架構處理器統(tǒng)治著移動市場和 IoT 市場,MIPS 是基于 RISC 的衍生架構之一,近年來 RISC-V 架構則憑借著開源、指令精簡、可擴展等優(yōu)勢,在注重能效比的物聯(lián)網領域大受追捧,并開始進入更高性能需求的服務器市場。

當前市場格局中,英特爾和 AMD 兩大巨頭憑借深厚的技術積累和市場布局,占據了市場的絕大部分份額。

然而,隨著 AI 技術的飛速發(fā)展,中國作為服務器市場的增長引擎,也為眾多服務器芯片公司提供了前所未有的發(fā)展機遇。這些公司紛紛瞄準這一黃金時期,加大研發(fā)力度,提升產品性能,以期在激烈的市場競爭中脫穎而出,分得一杯羹。

如今,國產服務器 CPU 正處于奮力追趕的關鍵時期,主流的廠商包括海光、兆芯、飛騰、華為鯤鵬、龍芯、申威。

海光完全兼容 X86 架構,擁有指令集永久授權,不僅具備了獨立設計 CPU 內核和 SoC 的能力,也可以對指令集進行自主擴展和優(yōu)化。海光 CPU 系列產品中,海光三號為 2023 年主力銷售產品,海光四號、海光五號處于研發(fā)階段。海光 CPU 既支持面向數據中心、云計算等復雜應用領域的高端服務器;也支持面向政務、企業(yè)和教育領域的信息化建設中的中低端服務器以及工作站和邊緣計算服務器,已經應用于電信、金融、互聯(lián)網、教育、交通、工業(yè)設計、圖形圖像處理等領域。

再看飛騰,飛騰已與 1600 余家國內軟硬件廠商打造完整生態(tài)體系,并已完成與 6 大類 1000 余種整機產品、2600 余種軟件和外設的適配?;陲w騰桌面 CPU 的終端已形成較為完整的生態(tài)圖譜,可覆蓋從整機硬件、基礎軟件到上層的應用。

去年四月,龍芯推出 2023 款 HPC CPU:3D5000,擁有 32 核高達 2 GHz 和 300W TDP,據稱比典型 Arm 芯片快 4 倍。龍芯 3D5000 的推出,進一步滿足了數據中心對性能的需求,也標志著龍芯中科在服務器 CPU 芯片領域進入國內領先行列。

此外國內企業(yè)還在加快部署 RISC-V 芯片。比如去年 10 月,山東大學成功部署了基于 RISC-V CPU 的服務器集群,該系統(tǒng)擁有 3072 個核心,并配置了 48 個 64 位 RISC-V CPU 節(jié)點。中國科學院 (CAS) 正在開發(fā)「香山」RISC-V 芯片。

目前,從架構路線上看,x86 更具發(fā)展空間和潛力。

X86 不僅是國際廣泛認可的通用計算架構,而且國產 CPU 廠商通過獲得 X86 架構和指令集的授權,不斷消化、吸收與創(chuàng)新,目前已具備高度的自主發(fā)展和自由迭代的能力。

在自主發(fā)展方面,X86 架構為國產 CPU 廠商提供了一個廣闊的舞臺。他們不僅可以在架構的基礎上進行微架構創(chuàng)新,還可以根據國內市場的特殊需求,定制和優(yōu)化指令集,開發(fā)出更符合本土用戶習慣和應用場景的 CPU 產品。這種定制化的能力使得國產 CPU 在性能和功能上能夠與國際大廠的產品相媲美,甚至在某些特定領域實現(xiàn)超越。其次,在自由迭代方面,國產 CPU 廠商具備了對 X86 架構進行持續(xù)升級和優(yōu)化的能力。

因此,在安全性方面,國產 X86 CPU 廠商具備自主可控的能力,他們可以通過自主研發(fā)和創(chuàng)新,確保 CPU 產品在設計和制造過程中的安全性。

GPU 廠商更是進入黃金時刻

GPU 市場的火熱程度還要遠遠夸張于 CPU 市場。

盡管 FPGA、各類 ASIC 芯片也能執(zhí)行大量運算,但 GPU 的通用性無疑讓它更具吸引力。

在 AI 服務器的構建中,GPU 的價值量顯著高于 CPU。一臺 AI 服務器通常僅搭載 1-2 塊 CPU,但 GPU 的數量則可能大大增加。根據 GPU 數量的不同,AI 服務器可分為四路、八路和十六路服務器,其中搭載 8 塊 GPU 的八路 AI 服務器最為常見。這種配置使得 AI 服務器在處理大規(guī)模數據和高復雜度算法時具有更高的效率和穩(wěn)定性。

以浪潮的服務器產品為例,我們可以更直觀地感受到 GPU 在 AI 服務器中的價值。浪潮的通用服務器 NF5280M6 采用 1~2 顆第三代 Intel Xeon 可擴展處理器,每顆 CPU 的售價約為 64000 元,因此該服務器的芯片成本大約在 64000~128000 元之間。然而,在浪潮的 AI 服務器 NF5688M6 中,情況則大不相同。該服務器采用了 2 顆第三代 Intel Xeon 可擴展處理器和 8 顆英偉達 A800 GPU 的組合。據英偉達官網顯示,每顆 A800 的售價高達 104000 元。因此,僅計算芯片成本,該 AI 服務器的芯片成本就達到了約 96 萬元。

可以看到,隨著 AI 服務器的廣泛普及和應用,GPU 也迎來量價齊升。

作為全球領先的 GPU 制造商,英偉達憑借其卓越的技術和創(chuàng)新能力,成功抓住了 AI 發(fā)展的黃金機遇。不斷推出性能更強大、功能更豐富的 GPU 產品,滿足了 AI 服務器日益增長的計算需求。英偉達不僅收獲了接到手軟的訂單,還成功占領了 AI 服務器市場的制高點。

當然,國產 GPU 廠商也不會錯過這一好時機。他們加大研發(fā)力度,努力提升產品性能和質量,以滿足國內 AI 服務器市場的迫切需求。

2023 年上半年,中國加速芯片的市場規(guī)模超過 50 萬張。從技術角度看,GPU 卡占有 90% 的市場份額;從品牌角度看,中國本土 AI 芯片品牌出貨超過 5 萬張,占比整個市場 10% 左右的份額。

國產 GPU 有兩條主要的發(fā)展路線:分別為傳統(tǒng)的 2D/3D 圖形渲染 GPU 和專注高性能計算的 GPGPU,近年來,國產 GPU 廠商在圖形渲染 GPU 和高性能計算 GPGPU 領域上均推出了較為成熟的產品。

國產算力 GPU 的主要廠商包括海光信息、寒武紀、平頭哥、華為昇騰、天數智芯、燧原科技、摩爾線程、壁仞科技、沐曦等公司,部分產品的單卡指標和參數已經與英偉達產品接近或持平。目前國產算力 GPU 芯片在推理場景應用較多且具備一定競爭力,如含光 800、思元 370、MTTS3000 等等。

隨著國家對自主可控技術的重視和支持力度不斷加大,國產 GPU 廠商的發(fā)展前景十分廣闊。他們有望在未來通過技術創(chuàng)新和市場拓展,逐步縮小與國際巨頭的差距,實現(xiàn)國產 GPU 在 AI 服務器市場的更大突破。

DDR5、HBM 成為 AI 服務器標配

HBM(高帶寬內存)以其高帶寬、高容量、低延時和低功耗的優(yōu)勢,成為 AI 服務器中 GPU 的搭載標配。英偉達推出的多款用于 AI 訓練的芯片 A100、H100 和 H200,均采用 HBM 顯存:

  • A100 采用 80GB HBM2 顯存,峰值帶寬高達 1.6TB/s。

  • H100 采用 80GB HBM3 顯存,峰值帶寬高達 3.2TB/s。

  • H200 采用 96GB HBM3 顯存,峰值帶寬高達 5.12TB/s。

HBM 顯存的應用,大幅提升了 AI 訓練的速度和效率,是當前 AI 計算領域必不可少的重要技術。

此外,針對 AI 服務器的高性能要求,更強大的內存——DDR5 需求隨之提升。與 DDR4 相比,DDR5 具備更高速度、更大容量和更低能耗等特點。DDR5 內存的最高傳輸速率達 6.4Gbps,比 DDR4 高出一倍。

美光科技此前曾表示,AI 服務器對 DRAM 和 NAND 的容量需求分別是常規(guī)服務器的 8 倍和 3 倍。AI 服務器的增長,對內存的拉動可謂是肉眼可見,而且需求相當明確。中金公司此前指出,2023-2025 年僅 AI 即會為存儲帶來 80 億美元增量市場。

央企加快智算中心建設,國產 AI 服務器機遇大增

2 月 19 日,國務院國資委召開中央企業(yè)人工智能專題推進會。明確指出中央企業(yè)要加快布局和發(fā)展人工智能產業(yè),加快建設一批智能算力中心:同時開展 AI+專項行動,加快重點行業(yè)賦能,構建一批產業(yè)多模態(tài)優(yōu)質數據集,打造從基礎設施、算法工具、智能平臺到解決方案的大模型賦能產業(yè)。央企帶頭加速智算中心建設、推動 AI 賦能產業(yè),有望提升國產算力需求,帶動相關產業(yè)發(fā)展。

根據 2023 年 10 月,中國電信發(fā)布的《AI 算力服務器(2023-2024 年)集中采購項目》中標候選人結果顯示,總金額約為 84.63 億元,包括 AI 服務器 4175 臺以及 IB 交換機 1182 臺,其中使用國產(鯤鵬)芯片的 AI 服務器 1977 臺,占整體采購數量的 47.35%。

近日,中國聯(lián)通發(fā)布 2024 年人工智能服務器集中采購項目資格預審公告,公告顯示,2024 年中國聯(lián)通人工智能服務器集中采購項目已批準,招標人為中國聯(lián)合網絡通信有限公司及省分公司、聯(lián)通數字科技有限公司等。此次中國聯(lián)通將采購人工智能服務器合計 2503 臺,關鍵組網設備 RoCE 交換機合計 688 臺,本次采購不劃分標包。

在信創(chuàng)、國產化趨勢下,此次招標中國產服務器或占大多數,而隨著運營商招投標國產服務器占比的提升,國產服務器廠商有望受益。

以下是數家在「AI 服務器」概念領域中備受矚目,被視為未來市場潛力巨大的黑馬公司。

IDC 數據顯示,2023 年上半年,從銷售額來看,浪潮、新華三、寧暢位居前三,占據了 70% 以上的市場份額;從出貨臺數看,浪潮、坤前、寧暢位居前三名,占近 60% 的市場份額。

浪潮信息,主營通用服務器、邊緣服務器、AI 服務器和存儲等。從 2020 年至 2022 年,服務器業(yè)務的銷售收入在浪潮信息總營收中占比始終保持在 95% 以上。2023 年上半年,浪潮信息的服務器及部件業(yè)務實現(xiàn)營收 244.99 億元,在總營收中占比高達 98.80%。長期以來,浪潮服務器在中國市場份額都在 30% 左右,位居中國第一,全球第二。

新華三為紫光股份旗下的核心企業(yè),新華三擁有計算、存儲、網絡、5G、安全、終端等全方位的數字化基礎設施整體能力。2023 年上半年,新華三服務器以 16% 的市場份額穩(wěn)居中國市場第二,其中刀片服務器(一種高度整合的高性能服務器系統(tǒng))以 54% 的市場份額蟬聯(lián)中國市場第一。

寧暢信息創(chuàng)立于 2019 年,成立時間雖短,但寧暢團隊在服務器領域已有 15 年,公司員工中超 90% 是研發(fā)人員,是服務器領域的「黑馬」公司之一。2023 年上半年,寧暢液冷服務器市占率增速位居第一,市場占有率增速高達 500%。

坤前計算機成立于 2012 年,是一家成熟服務器生產商,包含 AI 服務器、通用服務器、存儲服務器、邊緣計算服務器、高密度服務器以及國產服務器系列。中興通訊也是我國知名的服務器供應商之一。據 IDC 發(fā)布數據,2022 年中興通訊服務器銷售額和機架服務器出貨量提升至國內前五。在電信行業(yè),中興通訊服務器及存儲產品發(fā)貨量多年蟬聯(lián)第一,市場份額超過 30%,是中國移動、中國聯(lián)通、中國電信三大運營商的主流供應商。



關鍵詞: AI服務器

評論


技術專區(qū)

關閉