英偉達、AMD:確認對華斷供高端GPU芯片
據(jù)路透社報道,美國對中國再下重拳,禁止AMD及英偉達部分高端GPU出口中國!
本文引用地址:http://butianyuan.cn/article/202209/438388.htm英偉達周三表示,已經(jīng)收到通知,美國官員要求其停止向中國出口兩款用于人工智能工作的頂級計算芯片,此舉可能會削弱中國公司開展先進技術的能力。像圖像識別這樣的工作,阻礙了英偉達在中國的業(yè)務。
英偉達股價盤后下跌 6.6%。該公司表示,該禁令影響了其旨在加速機器學習任務的 A100 和 H100 芯片,可能會干擾英偉達今年宣布的旗艦芯片 H100 的開發(fā)完成。
英偉達表示,美國官員告訴它,新規(guī)則“將解決所涉產(chǎn)品可能在中國被用于或轉(zhuǎn)用于‘軍事最終用途’或‘軍事最終用戶’的風險?!?/span>
與此同時,英偉達的競爭對手 AMD 也向媒體表示,公司也已收到新的許可要求,將阻止其 MI250 人工智能芯片出口到中國,但它相信其 MI100 芯片不會受到影響。AMD 表示,它不相信新規(guī)則會對其業(yè)務產(chǎn)生重大影響。受此消息影響AMD盤后下跌 3.79%。
由于個人電腦需求下降,英偉達已經(jīng)面臨銷售下滑。在收到通知的前一天,該公司給出了令人失望的預測,稱需要削減出貨量以減少過剩的庫存。現(xiàn)在英偉達又面臨了更大的麻煩。英偉達表示,如果該公司沒有獲得向中國銷售芯片的許可,可能會損失 4 億美元的銷售額。這約占第三財季收入的 6.8%。
英偉達于美國時間8月31日披露了該通知,英偉達公司在一份電子郵件聲明中表示:“我們正在與中國客戶合作,以滿足他們計劃或未來購買替代產(chǎn)品的需求,并且可能會在替代產(chǎn)品不足的情況下尋求許可。新許可要求適用的唯一當前產(chǎn)品是 A100、H100 以及包含它們的 DGX 等系統(tǒng)?!?/span>
2022年8月26 日,美國政府或 USG 通知 NVIDIA,USG 已對本公司未來向中國(包括香港)和俄羅斯的任何出口實施一項新的許可要求,立即生效。A100 和即將推出的 H100 芯片,DGX 或包含 A100 或 H100 芯片和 A100X 的任何其他系統(tǒng)也包含在新的許可要求中。許可要求還包括任何未來的 NVIDIA 芯片,其峰值性能和芯片到芯片的 I/O 性能等于或大于大致相當于 A100 的閾值,以及包括了這些芯片的任何系統(tǒng)。出口技術以支持或開發(fā)涵蓋產(chǎn)品需要許可證。USG 表示,新的許可要求將解決涵蓋產(chǎn)品可能用于或轉(zhuǎn)用于中國和俄羅斯的“軍事最終用途”或“軍事最終用戶”的風險。
新的許可要求可能會影響公司及時完成 H100 開發(fā)或支持 A100 現(xiàn)有客戶的能力,并可能要求公司將某些業(yè)務轉(zhuǎn)移到中國以外。該公司與美國政府合作,并正在為公司的內(nèi)部開發(fā)和支持活動尋求豁免。
此外,公司正在與中國的客戶接觸,并尋求滿足他們計劃或未來購買公司數(shù)據(jù)中心產(chǎn)品的需求,產(chǎn)品不受新許可要求的約束。如果客戶需要新許可要求涵蓋的產(chǎn)品,公司可能會為客戶尋求許可,但不能保證 USG 會為任何客戶授予任何豁免或許可,或者 USG 將在及時。
公司于 2022 年 8 月 24 日提供的第三財季展望包括對中國的約 4 億美元潛在銷售額,如果客戶不想購買公司的替代產(chǎn)品或 USG及時向重要客戶授予許可或拒絕許可。
相比于英偉達前一代的 Volta GPU,A100 的性能提升了 20 倍,非常適合于人工智能、數(shù)據(jù)分析、科學計算和云圖形工作負載。該芯片由 540 億個晶體管組成,打包了第三代 Tensor 核心,并具有針對稀疏矩陣運算的加速功能,對于 AI 推理和訓練來說特別有用。此外,每個 GPU 可以劃分為多個實例,執(zhí)行不同的推理任務,采用 Nvidia NVLink 互連技術可以將多個 A100 GPU 用于更大的 AI 推理工作負載。
然而,這些在 H100 出現(xiàn)之后顯得略有不足了。在今年春季的發(fā)布會中,英偉達CEO黃仁勛發(fā)布了面向高性能計算(HPC)和數(shù)據(jù)中心的下一代 Hopper 架構(gòu),搭載新一代芯片的首款加速卡被命名為 H100,它就是 A100 的替代者。
H100 是一款針對大模型專門優(yōu)化過的芯片,使用臺積電 5nm 定制版本制程(4N)打造,單塊芯片包含 800 億晶體管。同時也是全球首款 PCI-E 5 和 HBM 3 顯卡,一塊 H100 的 IO 帶寬就是 40 terabyte 每秒。
Transformer 類預訓練模型是當前 AI 領域最熱門的方向,英偉達以此為目標專門優(yōu)化 H100 的設計,提出了 Transformer Engine,集合了新的 Tensor Core、FP8 和 FP16 精度計算,以及 Transformer 神經(jīng)網(wǎng)絡動態(tài)處理能力,可以將此類機器學習模型的訓練時間從幾周縮短到幾天。
針對服務器應用,H100 也可以虛擬化為 7 個用戶共同使用,每個用戶獲得的算力相當于兩塊全功率的 T4 GPU。此外,H100 還實現(xiàn)了業(yè)界首個基于 GPU 的機密計算。
基于 Hopper 架構(gòu)的 H100,英偉達還推出了機器學習工作站、超級計算機等一系列產(chǎn)品。8 塊 H100 和 4 個 NVLink 結(jié)合組成一個巨型 GPU——DGX H100,一共有 6400 億晶體管,AI 算力 32 petaflops,HBM3 內(nèi)存容量高達 640G。
與此同時,得益于與 Equinix(管理全球 240 多個數(shù)據(jù)中心的全球服務提供商)的合作, A100 和 H100 的新型 GPU 通過水冷方式來節(jié)省用戶的能源成本。使用這種冷卻方法最多可以節(jié)省 110 億瓦時,可以在 AI 和 HPC 推理工作中實現(xiàn) 20 倍的效率提升。
今年 5 月份,英偉達曾開源了 Linux GPU 內(nèi)核模塊代碼,未來是否還會有更多開源計劃,暫未可知。
根據(jù)Jon Peddie Research的數(shù)據(jù),2021年四季度,在全球獨立 GPU 市場,英偉達份額高達81%,其余19%則被AMD拿下。雖然近兩年英特爾推出了Xe系列獨立顯卡,但目前銷量仍相對有限,預計其最新的市場份額可能仍在5%以下。同樣,在面向數(shù)據(jù)中心的高端獨立GPU市場,也幾乎是由英偉達和AMD兩家壟斷。
北京半導體行業(yè)協(xié)會副秘書長朱晶對經(jīng)濟觀察網(wǎng)表示,根據(jù)消息,被封鎖的產(chǎn)品是有足夠雙精度計算能力的高端GPU,就NVIDIA來說,是以A100算力為基準,比它先進的所有顯卡產(chǎn)品都會受限。
朱晶表示,根據(jù)消息,被封鎖的產(chǎn)品是有足夠雙精度計算能力的高端GPU,對于低端GPU不受影響。具備較高雙精度計算能力的高端GPU主要用于高性能計算領域,包括科學計算,CAE(計算機輔助工程),醫(yī)療等方面。
超算中心即國家超級計算中心,由數(shù)千甚至更多處理器組成,具備超高算力,被譽為“計算機中的珠穆朗瑪峰”,主要滿足國家高科技領域和尖端技術研究的需求。
相比之下,普通的數(shù)據(jù)中心面向所有需要信息技術支撐的場景,包括大量互聯(lián)網(wǎng)應用。中國的電信運營商、互聯(lián)網(wǎng)公司都自建數(shù)據(jù)中心。朱晶表示,企業(yè)級數(shù)據(jù)中心經(jīng)常采購NVIDIA消息中的A100、H100產(chǎn)品,這些產(chǎn)品都是有足夠雙精度計算能力的高端GPU,上述斷供行為如果落實,造成的波及范圍會比較大。
評論