三大運營商爭相布局,全球掀起AI算力中心「軍備競賽」
人工智能領域近年來正在迎來一場由生成式人工智能大模型引領的爆發(fā)式發(fā)展。2022 年 11 月 30 日,OpenAI 公司推出一款人工智能對話聊天機器人 ChatGPT,其出色的自然語言生成能力引起了全世界范圍的廣泛關(guān)注,2 個月突破 1 億用戶,國內(nèi)外隨即掀起了一場大模型浪潮,Gemini、文心一言、Copilot、LLaMA、SAM、SORA 等各種大模型如雨后春筍般涌現(xiàn),2022 年也被譽為大模型元年。
本文引用地址:http://butianyuan.cn/article/202405/458350.htm人工智能也因此被視為革命性的技術(shù),對世界各國政府具有重要的戰(zhàn)略意義。數(shù)據(jù)顯示,今年,我國生成式人工智能的企業(yè)采用率已達 15%,市場規(guī)模約為 14.4 萬億元。在制造業(yè)、零售業(yè)、電信行業(yè)和醫(yī)療健康等四大行業(yè)的生成式人工智能技術(shù)的采用率均取得較快增長。
作為推動人工智能發(fā)展的三大要素之一,算力被稱為人工智能的「發(fā)動機」和核心驅(qū)動力。算力是指設備通過處理數(shù)據(jù),實現(xiàn)特定結(jié)果輸出的計算能力。中國電信研究院戰(zhàn)略發(fā)展研究所高級分析師陳元謀表示,算力指數(shù)每提升一個點,對數(shù)字經(jīng)濟的拉動大概是在 0.36 個百分點,對 GDP 的拉動大概是 0.17 個百分點
算力的緊缺甚至已成為制約人工智能研究和應用的關(guān)鍵因素。對此,美國對華高端算力產(chǎn)品采取了禁售措施,華為、龍芯、寒武紀、曙光、海光等企業(yè)都進入實體清單,它們芯片制造的先進工藝受限,國內(nèi)可滿足規(guī)模量產(chǎn)的工藝節(jié)點落后國際先進水平 2-3 代,核心算力芯片的性能落后國際先進水平 2-3 代。
算力短缺催生算力中心巨大市場
21 世紀,移動計算和云計算蓬勃發(fā)展。云計算的出現(xiàn),使得算力可以像水和電一樣,通過網(wǎng)絡「流動」到需要它的每一個角落。
人工智能的崛起對算力提出了更高的要求,GPU(Graphics Processing Unit,圖形處理單元)和 TPU(Tensor Processing Unit,張量處理單元)等專用硬件的出現(xiàn),極大地提高了處理效率,為機器學習模型的訓練和推理提供了強大的支持。
疊加算力緊缺的因素,進一步促成和孕育了算力中心這樣一個巨大市場。算力中心是指具備高性能計算、大規(guī)模存儲、高速網(wǎng)絡等基礎設施的計算中心,旨在提供大規(guī)模、高效率、低成本的算力服務。
以國內(nèi)為例,全國多地都在加速布局公共算力基礎設施。在上海,建設了全國首個算力交易平臺和人工智能公共算力服務平臺。在廣州,建設了國內(nèi)首個算力資源發(fā)布共享平臺??梢哉f,這些公共平臺給供需雙方牽了線搭了橋。
目前,國內(nèi)在 8 個地區(qū)建設國家算力樞紐節(jié)點,并規(guī)劃了 10 個國家數(shù)據(jù)中心集群,以構(gòu)建國家算力網(wǎng)絡體系。截至 2023 年底,國內(nèi)智算中心項目為 128 個,其中 83 個項目披露規(guī)模,規(guī)??偤统^ 7.7 萬 P。另外,2024 年共有 39 個智算中心項目已投產(chǎn)。
智算缺口猶存,三大運營商布局智算中心
近兩年來,AI 大模型層出不窮,對智算的需求也在飛速增長。市場咨詢機構(gòu) IDC 預計,2026 年,我國智能算力規(guī)模將進入每秒十萬億億次浮點(ZFLOPS)級別,達到 1271.4EFLOPS。此前六部門發(fā)布的《算力基礎設施高質(zhì)量發(fā)展行動計劃》明確了頂層算力在未來三年的建設節(jié)奏。其中提及,2023 年至 2024 年智算建設缺口為 23EFlops。2025 年全國算力目標超過 300EFlops,智算比例達到 35%,智算算力目標為 105EFlops。
針對于此,近年來三大運營商也在積極布局智算中心,并提出相關(guān)戰(zhàn)略部署。
中國聯(lián)通在提供專業(yè)化智算基礎設施服務方面,布局了「1+N+X」智算能力體系,包括了 1 個超大規(guī)模的單體智算中心、N 個智算訓推一體樞紐和屬地化的 X 個智算推理節(jié)點。
中國移動強化「4+N+31+X」數(shù)據(jù)中心布局,圍繞熱點、中心、邊緣實現(xiàn)算力資源覆蓋,建設邊緣節(jié)點超 1000 個?!?+N+31+X」數(shù)據(jù)中心體系,其中「4」指京津冀、長三角、粵港澳大灣區(qū)、成渝等 4 個熱點業(yè)務區(qū)域,「N」指國家樞紐節(jié)點 10 個數(shù)據(jù)中心集群內(nèi)規(guī)劃的超大型數(shù)據(jù)中心;「31」指各省規(guī)劃超大型數(shù)據(jù)中心;「X」指各地市級數(shù)據(jù)中心及匯聚機房。
中國電信則提出了「云網(wǎng)融合」的理念,形成了「2+4+31+X+O」的算力布局。其具體特指在內(nèi)蒙古和貴州兩個全國性云基地打造融合資源池,在京津冀等 4 個大區(qū)建成大規(guī)模公有云;在 31 個省省會級和重點城市建設屬地化專屬云;在 X 節(jié)點打造差異化邊緣云;布局「一帶一路」沿線國家,將算力體系延展至海外。
美歐日大舉投資,全球掀起 AI 算力「軍備競賽」
當前,全球范圍內(nèi)的各國都在制定各自的人工智能戰(zhàn)略和政策,以推動 AI 產(chǎn)業(yè)發(fā)展。
美國在 2016 年發(fā)布的《美國人工智能研究和發(fā)展戰(zhàn)略計劃》中就明確提出了加強 AI 基礎設施的建設。同時,歐洲聯(lián)盟也在 2018 年發(fā)布的 AI 戰(zhàn)略中明確提出了加強基礎設施建設的目標。這些基礎設施主要包括計算資源、數(shù)據(jù)資源、人才資源等。日本緊跟美國步伐,相繼于 2019 年、2021 年、2022 年出臺 3 版《人工智能戰(zhàn)略》。去年四月,日本政府成立人工智能戰(zhàn)略小組,由首相輔佐官村井英樹擔任組長,組員包括內(nèi)閣官房、外務省、數(shù)字廳等部門人工智能政策主管官員。
在一系列戰(zhàn)略部署下,美日歐等國家和地區(qū)也在爭相建設算力中心,全球掀起 AI 算力「軍備競賽」。
去年 11 月,美國國家超級計算中心和諸多 AI 領域龍頭公司聯(lián)合組建了萬億參數(shù)聯(lián)盟(TPC)。該聯(lián)盟由來自全球的科學家組成,目標是共同推進用于科學發(fā)現(xiàn)的 AI 模型,特別關(guān)注一萬億或更多參數(shù)的巨型模型。目前,TPC 正在開發(fā)可擴展模型架構(gòu)和訓練策略,并組織整理用于模型訓練的科學數(shù)據(jù),以優(yōu)化當前和未來的百萬兆次級計算平臺的 AI 庫。
此外,美國能源部下屬的橡樹嶺國家實驗室、勞倫斯·利弗莫爾國家實驗室以及 IBM、NVIDIA 公司成立超級計算機卓越實驗中心,聯(lián)合開發(fā)新一代 HPC 計算機,使用 IBM 的 Power 處理器及 NVIDIA 的 Teslak 加速卡,浮點性能至少 10 億億次,最高的可達 30 億億次。
2020 年 12 月,歐盟擬為「數(shù)字歐洲」計劃撥付 75 億歐元,其中 22 億歐元用于超級計算,21 億歐元用于人工智能。該計劃具體包括:在 2021 年底前至少收購 1 臺百萬兆級超級計算機;在健康、制造和能源等領域建立可用于人工智能的全歐數(shù)據(jù)空間及測試設施;部署泛歐量子通信基礎架構(gòu)并支持建立網(wǎng)絡安全產(chǎn)品認證計劃;專設人工智能、高級計算和網(wǎng)絡安全碩士計劃等。
去年 3 月,英國政府承諾向超級計算和人工智能研究投入 10 億英鎊(13 億美元),希望成為「科技超級大國」。作為該戰(zhàn)略的一部分,政府表示,希望花費約 9 億英鎊建造一臺「超大規(guī)?!褂嬎銠C,它能夠構(gòu)建自己的「BritGPT」,與 OpenAI 的生成式 AI 聊天機器人相媲美。
今年四月,日本經(jīng)濟產(chǎn)業(yè)省將向 5 家日本企業(yè)提供總額 725 億日元的補貼,用于打造人工智能超級計算機,旨在減少對美國的技術(shù)依賴。日本政府為 Sakura Internet、日本電信巨頭 KDDI、GMO 互聯(lián)網(wǎng)、Rutilea 和 Highreso 分別提供 501 億、102 億、19 億、25 億和 77 億日元的政府補貼。消息顯示,日本「產(chǎn)業(yè)技術(shù)綜合研究所」將最早于今年開發(fā)出一臺超級計算機,其計算能力大約是現(xiàn)有機器的 2.5 倍。在日本經(jīng)產(chǎn)省的監(jiān)督下,該機構(gòu)將通過云服務將這臺超算提供給開發(fā)生成式 AI 的日本國內(nèi)企業(yè)。
除了政府支持的項目外,全球科技企業(yè)也在砸錢建算力。亞馬遜計劃未來 15 年投資 1480 億美元在全球各地建設數(shù)據(jù)中心,滿足人工智能等需求。谷歌公司宣布投資 30 億美元用于建設或擴建位于弗吉尼亞州和印第安納州的數(shù)據(jù)中心園區(qū)。微軟、OpenAI 也正在進行一項分為五個階段的超級計算機建設項目,擬動用的投資將超過 1150 億美元,其中大部分的成本將用在采購驅(qū)動 AI 所需的算力設施。
運營商啟動大規(guī)模采購,AI 芯片市場爆發(fā)
大規(guī)模的布局算力中心也帶來了對 AI 芯片的大規(guī)模采購。
近日,中國移動啟動大規(guī)模 AI 芯片集采引發(fā)業(yè)界廣泛關(guān)注。中國移動啟動 2024 年至 2025 年新型智算中心采購。招標公告顯示,本次項目采購總規(guī)模達到 8054 臺。有機構(gòu)測算,按照此前中標報價,此次采購規(guī)模或超過 150 億元。
一個月前,中國聯(lián)通也啟動了超過 2500 臺 AI 服務器采購,而中國電信此前也早已行動。隨著三大運營商啟動大規(guī)模招標,在業(yè)內(nèi)看來,國內(nèi)算力部署已經(jīng)駛上「快車道」。
就在 2 個月前,中國移動還發(fā)布了 2023 年至 2024 年新型智算中心(試驗網(wǎng))集采項目,12 個標包對應 AI 訓練服務器采購量總計達到 2454 臺(1-11 標包集采 1204 臺,12 標包集采 1250 臺)。
在 3 月底,中國聯(lián)通發(fā)布 2024 年中國聯(lián)通人工智能服務器集中采購項目資格預審公告,公告顯示,2024 年中國聯(lián)通人工智能服務器集中采購項目已批準,招標人為中國聯(lián)合網(wǎng)絡通信有限公司及省分公司、聯(lián)通數(shù)字科技有限公司等。此次中國聯(lián)通將采購人工智能服務器合計 2503 臺,關(guān)鍵組網(wǎng)設備 RoCE 交換機合計 688 臺,本次采購不劃分標包。
去年 10 月,中國電信也公布了 AI 算力服務器(2023-2024 年)集中采購項目評審結(jié)果,超聚變、浪潮、新華三等廠商入圍,合計采購 4175 臺 AI 服務器和 1182 臺交換機。
算力中心建設帶動 AI 芯片廠商受益
目前來看,主要有建設算力中心的企業(yè)包括運營商、大型云服務企業(yè)和大型互聯(lián)網(wǎng)企業(yè)。這些企業(yè)資金充沛,體量大,能承擔建設算力中心的巨額費用。同時,其對算力需求巨大,也有豐富的下游客戶可以出售算力。
2023 年 10 月 17 日,美國商務部出臺了出口管制清單的 ECNN 3A090 和 4A090 要求,以進一步限制高性能 AI 芯片的出口,同時將 13 家中國公司列入實體清單。修改后的出國管制設計 產(chǎn)品包括但不限于:英偉達 A100、A800、H100、H800、L40、L40S 以及 RTX 4090 產(chǎn)品。由于美國對國內(nèi)算力 AI 芯片的采購限制。目前算力中心和相關(guān) AI 芯片已形成國內(nèi)外兩個市場。
國內(nèi)巨大的算力市場帶動了國產(chǎn)芯片廠商受益。近日,中國移動正式宣布建成全球運營商最大單體智算中心——中國移動智算中心 (呼和浩特),目前已投產(chǎn)使用。該智算中心項目部署約 2 萬張 AI 加速卡,AI 芯片國產(chǎn)化率超 85%。
中國聯(lián)通近日也在北京建成了全國首個「政府+運營商」智算中心,算力中心繼續(xù)沿用全國產(chǎn)化的昇騰 AI基礎軟硬件。
此前,中國電信上海公司在上海點亮的「大規(guī)模算力集群暨人工智能公共算力服務平臺」,是全國規(guī)模最大的運營商級智算中心,算力集群規(guī)模達 15000 卡,采用自主創(chuàng)新 AI 芯片。年初投入運營的中國電信中部智算中心也采用了基于國產(chǎn) AI 基礎軟硬件平臺的方案架構(gòu)。
不難發(fā)現(xiàn),國內(nèi)算力中心多采用國產(chǎn) AI 軟硬件。目前 GPU 在 AI 芯片市場用量最大,目前國產(chǎn) AI 芯片采購主要受益中國代表企業(yè)包括華為、海光信息、景嘉微、燧原科技等。去年百度為 200 臺服務器便訂購了 1600 片昇騰 910B AI 芯片。
據(jù)機構(gòu)測算,受英偉達限令升級影響,2024 年 AI 國產(chǎn)芯片新增市場空間將達到 700 億以上。
國外其他主要市場在芯片采購方面收到的限制較小。全球 AI 芯片市場當前基本被以英偉達為代表的歐美大廠主導,業(yè)界數(shù)據(jù)顯示,英偉達以 80% 的市占率幾乎「壟斷」AI 芯片市場。此前英偉達的 CEO 黃仁勛還宣布,他們將在日本建立 AI 工廠,并且該工廠優(yōu)先供應日本本土的 GPU 需求。
競爭加劇,大廠開始自研 AI 服務器芯片
目前普遍認為,人工智能熱潮下,受益最多的是「賣鏟子」的 AI 芯片廠商。數(shù)據(jù)顯示,芯片成本在基礎型服務器中約占總成本的 32%,而在高性能或更強性能的服務器中,芯片成本占比高達 50%~83%。
過高的成本也導致有越來越多的互聯(lián)網(wǎng)和 IT 設備大廠開始自研 AI 服務器芯片。
2016 年,谷歌推出了自研的 AI 張量處理單元(TPU),2022 年前后,谷歌開始研發(fā)基于 Arm 架構(gòu)的服務器 CPU,2024 年 4 月,谷歌發(fā)布了自研 Arm 構(gòu)架 CPU——Axion,并宣布該芯片已經(jīng)在內(nèi)部使用。
2020 年,微軟開始為其 Azure 云服務定制芯片,2023 年 11 月,微軟推出了兩款自研芯片——Maia100 和 Cobalt100。Maia100 是一款專為大語言模型訓練和推理而設計的芯片,采用臺積電 5nm 制程,Cobalt100 是一款基于 Arm 架構(gòu)的 128 核服務器 CPU。
今年 4 月初,Meta 發(fā)布了新一代 AI 訓練和推理加速器 MTIA,其計算和內(nèi)存帶寬是上一代產(chǎn)品的兩倍多,最新版本芯片有助于驅(qū)動 Facebook 和 Instagram 上的排名和推薦廣告模型。
此前,有報道稱,美國 AI 研究公司 OpenAI 正在與包括阿聯(lián)酋政府在內(nèi)的潛在投資者進行談判,試圖推動一個旨在提高全球芯片制造能力的項目,重塑全球半導體行業(yè)。其中一名知情人士透露,該計劃準備籌集高達 5 萬億至 7 萬億美元。
此外國內(nèi)大廠也不逞多讓,開始研發(fā) AI 芯片。近日,中國移動在其 2024 算力網(wǎng)絡大會上正式發(fā)布大云磐石 DPU,該芯片帶寬達到 400Gbps,為國內(nèi)領先水平。
評論