新聞中心

EEPW首頁 > 智能計算 > 市場分析 > 2024 年,GPU 能降價嗎?

2024 年,GPU 能降價嗎?

作者: 時間:2024-01-17 來源:半導體產(chǎn)業(yè)縱橫 收藏

2023 過去,當我們回顧這一年的最受產(chǎn)業(yè)關(guān)注的芯片,相信大多數(shù)人會將票投向 。2023 年中,我們總能聽到「 緊缺」、「英偉達狂飆」、「黃仁勛分享成功秘訣」。

本文引用地址:http://butianyuan.cn/article/202401/454904.htm

無可否認,2023 年生成式 AI 的熱潮無邊無際,全球高科技公司都涌入了 AI 的軍備競賽。隨之帶來的是算力告急、全球瘋搶 。

全球最火的 GPU

2023 年層出不窮地傳出,人工智能 AI 大模型的消息。OpenAI、百度、谷歌、騰訊都在搭建屬于自己的大模型。對于這些五花八門的大模型,我們不多贅述,但大模型的搭建,最需要的就是 GPU,而 2023 年需求量最大的 GPU 不外乎:A100/H100。

首當其沖的就是 A100GPU。OpenAI 使用的是 3,617 臺 HGXA100 服務器,包含近 3 萬塊英偉達 GPU。國內(nèi)云計算相關(guān)專家認為,做好 AI 大模型的算力最低門檻是 1 萬枚英偉達 A100 芯片。

TrendForce 研究則顯示,以 A100 的算力為基礎(chǔ),GPT-3.5 大模型需要高達 2 萬枚 GPU,未來商業(yè)化后可能需要超過 3 萬枚。

H100 也是業(yè)內(nèi)追求的對象。H100 于去年 9 月量產(chǎn),由臺積電 4N 工藝代工。相較于前任 A100,H100 單卡在推理速度上提升 3.5 倍,在訓練速度上提升 2.3 倍;如果用服務器集群運算的方式,訓練速度更是能提高到 9 倍,原本一個星期的工作量,現(xiàn)在只需要 20 個小時。

考慮到整體系統(tǒng)成本,H100 每美元產(chǎn)生的性能比 A100 還要高 4 到 5 倍之多。與 A100 相比,H100 的單卡價格更貴,但是由于其訓練、推理效率增加,成為了最具性價比的產(chǎn)品。

正因如此,科技大廠各個都搶著要買英偉達 H100GPU,或者更準確地說,是英偉達的 8-GPU HGX H100SXM 服務器。

英偉達成為了最受關(guān)注的賣鏟人。針對中國市場,還按照 A800 操作模式(A100 芯片的降維版本),推出了完全符合出口規(guī)定的 H100 的降維版本芯片。

熱情的買家

「GPU 就是新時代的比特幣?!筄penAI 首席科學家 IlyaSutskever 將這句話寫在他個人的 X 賬號上。在算力激增的背景下,英偉達的 GPU 成為了「硬通貨」。

夸張的是,甚至有海外初創(chuàng)企業(yè)開始利用 GPU 進行抵押融資,一家硅谷的創(chuàng)業(yè)公司使用 H100 拿到了 23 億美元的債務融資。

購買 H100 和 A100 的公司有三種。第一種,是需要超過 1000 張的公司,包括訓練 LLM 的創(chuàng)業(yè)公司,如 OpenAI、Anthropic;云服務提供商,如谷歌云、AWS、騰訊云;其他大公司,如特斯拉。第二種,是需要超過 100 張的公司,也就是對開源模型進行大量微調(diào)的初創(chuàng)公司。第三種,需要 10 張的公司,就是大部分創(chuàng)業(yè)公司和開源勢力,熱衷使用大模型的輸出微調(diào)小模型。

這些買家需要多少 GPU 呢?OpenAI 可能需要 5 萬張、Inflection 要 2.2 萬張、Meta 需要 2.5 萬張、大型云廠商(Azure、GoogleCloud、AWS、Oracle),每家可能需要 3 萬張,Lambda 和 CoreWeave 以及其他私有云可能總共需要 10 萬張,Anthropic、Helsing、Mistral、Character,每家可能要 1 萬張。

僅僅這幾家公司,就已經(jīng)需要 43.2 萬張 H100,如果以每塊約 3.5 萬美元計算,GPU 的價值約為 150 億美元。而這還沒有包括字節(jié)、百度、騰訊等國內(nèi)公司。

在 AI 大模型競爭上,榜上有名的幾個國家:中國、美國、沙特阿拉伯、阿聯(lián)酋,都是英偉達的座上賓。

沙特阿拉伯已通過公共研究機構(gòu)阿卜杜拉國王科技大學(Kaust)購買了至少 3000 塊英偉達的 H100 芯片。這些芯片將于 2023 年底全部交付,總價值約為 1.2 億美元,用于訓練 AI 大模型。

阿聯(lián)酋也獲得了數(shù)千顆英偉達芯片的使用權(quán),并已推出自己的開源大語言模型「Falcon40B」,「Falcon40B」使用了 384 個 A100 芯片進行訓練。

GPU 的出貨量

英偉達 H100 的出貨量也備受關(guān)注。研究機構(gòu) Omdia 披露,英偉達在 2023 年第二季度的 H100 出貨量為 900 噸。按照單片 H100GPU 的重量約為 3 千克,那么英偉達在二季度售出了約 30 萬片 H100。

到了三季度,英偉達大約賣出了 50 萬臺 H100 和 A100 GPU。每家能夠分到的 GPU 數(shù)量有限,Meta 和微軟各自采購了 15 萬個 H100GPU,谷歌、亞馬遜、甲骨文和騰訊則各采購了 5 萬片。

如此龐大的 GPU 需求量,導致基于 H100 的服務器需要 36~52 周的時間才能交付。按照英偉達官方的說法,2024 年一季度之前的 GPU 芯片早已全部售罄。

業(yè)內(nèi)預估,明年英偉達的出貨量將達到 150 萬-200 萬顆。

2024,GPU 能降價嗎?

GPU 能否降價,還要看明年的供需情況。上圖是 GPUUtils 列出的目前對 GPU 市場供需變化最有直接影響的科技公司,包括了:開發(fā)出 Chat-GPT 的 OpenAI、臺積電、微軟、Meta 以及成立僅僅一年便募得 13 億美元資金的 AI 新創(chuàng) Inflection。

買方

有的人不想買。谷歌、Meta 都覺得英偉達的 GPU 太貴了。

Meta 最近已經(jīng)宣布構(gòu)建了自己的 DLRM 推理芯片,并且得到廣泛部署。Meta 大大方方承認,自己即將發(fā)布的 AI 芯片并不能直接替代英偉達的芯片,但是自研芯片可以降低成本。

就算在谷歌 I/O 開發(fā)者大會兩個小時的演講中,谷歌方面一直在贊賞英偉達的 H100GPU 芯片。這也不妨礙,谷歌開始「騎驢找馬」,谷歌的云服務器上已經(jīng)用上了自家 TPU。

Google TPU v5e 于 2023 年 8 月發(fā)布,成為人工智能硬件領(lǐng)域的強大力量,專為大型語言模型和生成式人工智能量身定制。與前代產(chǎn)品相比,TPUv5e 的每美元訓練性能顯著提高 2 倍,每美元推理性能顯著提高 2.5 倍,可大幅節(jié)省成本。其突破性的多片架構(gòu)可實現(xiàn)數(shù)萬個芯片的無縫連接,突破了以往的限制,為處理海量人工智能任務開辟了途徑。

有的人不能買。中國是英偉達的第三大市場,占據(jù)其收入的 1/5 以上。隨著美國政府宣布進一步禁止中國銷售英偉達 H800 和 A800 芯片,賣不出去的 GPU,必然會對英偉達產(chǎn)生負面影響。

此外,明年 AI 或許迎來退潮。2023 年的 AI 熱潮,除了大模型震驚業(yè)界外,炒作的因素也不在少數(shù)。毫無疑問,ChatGPT 是 2023 年的世界頂流。因為它,OpenAI 網(wǎng)站的流量在 4 月份就超過了 18 億,進入了全球流量排名前 20。然而,網(wǎng)絡分析公司 Similarweb 公布的數(shù)據(jù)顯示,在狂飆半年后,ChatGPT 的訪問量首次出現(xiàn)負增長,6 月份的訪問量環(huán)比下滑 9.7%。

在大模型創(chuàng)業(yè)狂飆 200 多天后,探索者們的心態(tài),從理想亢奮來到現(xiàn)實落地。大模型的維護依賴大量的高性能芯片,而單要建構(gòu)、維護生成式 AI 工具的成本就非常巨大。這對于大公司而言還好,但是對于許多組織與創(chuàng)作者而言,這卻是一筆難以負擔的支出。

對于生產(chǎn)式 AI,2024 年還會再次迎來大眾的檢驗。行業(yè)分析師認為,2023 年關(guān)于生成式人工智能的炒作非常大,AI 被過度吹捧,因為相關(guān)技術(shù)需要克服許多障礙才能將其推向市場。

退潮之后,能夠剩下的高性能 GPU 需求還能有多少?

賣方

我們先來看看英偉達這個最大的賣家。優(yōu)先關(guān)注兩個方面:能不能供應足夠的 GPU,明年是否有新品刺激市場需求。

第一個供貨方面,眾所周知,英偉達只與臺積電合作生產(chǎn) H100,臺積電一共有 4 個生產(chǎn)節(jié)點是為 5nm 芯片提供產(chǎn)能:N5、N5P、N4、N4P。而 H100 只在 N5 或者是 N5P 的中的 4N 節(jié)點上生產(chǎn),這是一個 5nm 芯片的增強型節(jié)點,同時英偉達還必須與蘋果、AMD 和高通共享這個節(jié)點的產(chǎn)能,至于 A100 顯卡則是在臺積電的 N7 生產(chǎn)線制作的。從短期的情況看,三星和英特爾都因為制程技術(shù)的問題,無法替英偉達緩解供應緊張的問題。因此,預計明年市場,英偉達的 GPU 供應仍會緊缺。

第二個新品方面,英偉達在 2023 年 11 月底時,發(fā)布了 H100 的下一代繼承者——H200。表示在處理 Llama2 等 LLM 時,H200 的推理速度比 H100GPU 提高了近 2 倍。從 2024 年開始,亞馬遜網(wǎng)絡服務、谷歌云、微軟 Azure 和甲骨文云基礎(chǔ)設(shè)施將成為首批部署基于 H200 實例的云服務提供商。盡管還沒有公布 H200 的價格,但一定比 H100 目前每臺 2.5 萬美元至 4 萬美元的價格更加昂貴。

從兩個方面看,英偉達的 GPU 供需還存在較大的不確定性。不過。賣家市場,會有更多廠商加入。

明年 GPU 的另一大賣家,就是回過神來的 AMD。

從最近的財報來看,AMD 預計四季度 GPU 收入將達到 4 億美元,到 2024 年底將超過 10 億美元。其 CEO 蘇姿豐對明年充滿期待:「MI300 將成為自 2020 年后,銷售額達到 10 億美元最快的產(chǎn)品?!?/span>

2023 年 11 月,AMD 正式發(fā)布了對標 H100 的產(chǎn)品——MI300。據(jù) AMD 展示,由 8 塊 MI300X 組成的服務器在大模型推理方面的表現(xiàn),要比同樣規(guī)模的 H100 速度最高提升 1.6 倍之多。對于 AMD 來說,這種直接對標,實屬罕見。

有意思的是,Meta、微軟和 OpenAI 公司在 AMD 投資者活動上表態(tài),未來他們將會使用 AMD 最新的人工智能(AI)芯片 InstinctMI300X。

不過,英偉達對 AMD 的對標也態(tài)度強硬,官方發(fā)布博客,駁斥 AMD 的評測不客觀。英偉達表示,如果 H100GPU 使用了優(yōu)化過的軟件進行正確的基準測試,它的性能將大大超過 MI300X。

由于 MI300 還未正式應用,對于我們對于 AMD 和英偉達之間的「官司」很難分說,但不論如何,AMD 已經(jīng)走到了高性能 GPU 的起跑線。

總而言之,2024 年的 GPU 還充滿變數(shù)。在 AI 大模型冷靜后、在買家不想當冤大頭后、在賣家越來越多后,GPU 還會維持天價嗎?相信各位看官心中自有答案。從市場的角度看,無論是當下多先進的技術(shù),到最后終將會越來越普世。就看 GPU 玩家們,在 2024 年如何進攻戰(zhàn)場了。



關(guān)鍵詞: GPU

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉