NVIDIA Blackwell平臺發(fā)布,賦能計算新時代
● 全新Blackwell GPU、NVLink和可靠性技術(shù)賦能萬億參數(shù)規(guī)模的AI模型
● 全新Tensor Core與TensorRT-LLM編譯器將LLM推理運行成本和能耗降低多達25倍
● 全新加速器助推數(shù)據(jù)處理、工程模擬、電子設計自動化、計算機輔助藥物設計和量子計算領域?qū)崿F(xiàn)突破
● 各大云提供商、服務器制造商和頭部AI企業(yè)紛紛采用
NVIDIA于近日宣布推出NVIDIA Blackwell平臺以賦能計算新時代。該平臺可使世界各地的機構(gòu)都能夠在萬億參數(shù)的大語言模型(LLM)上構(gòu)建和運行實時生成式AI,其成本和能耗較上一代產(chǎn)品降低多達25倍。
Blackwell GPU架構(gòu)搭載六項變革性的加速計算技術(shù),這些技術(shù)將助推數(shù)據(jù)處理、工程模擬、電子設計自動化、計算機輔助藥物設計、量子計算和生成式 AI 等領域?qū)崿F(xiàn)突破,這些都是NVIDIA眼中的新興行業(yè)機遇。
NVIDIA創(chuàng)始人兼首席執(zhí)行官黃仁勛表示: “三十年來,我們一直深耕加速計算領域,力求實現(xiàn)像深度學習和 AI 這樣的變革性突破。生成式 AI 是我們這個時代的決定性技術(shù),Blackwell GPU 是推動新一輪工業(yè)革命的引擎。通過與全球最具活力的企業(yè)合作,我們將實現(xiàn) AI 賦能各行各業(yè)的承諾?!?/p>
許多企業(yè)都在計劃采用 Blackwell,其中包括亞馬遜云科技、戴爾科技、谷歌、Meta、微軟、OpenAI、Oracle、特斯拉和 xAI。
Alphabet和谷歌首席執(zhí)行官Sundar Pichai表示: “通過擴展谷歌搜索和Gmail等服務以服務于數(shù)十億用戶,我們對于如何管理計算基礎設施有了更加深入的了解。隨著公司業(yè)務進入AI平臺轉(zhuǎn)型期,我們將繼續(xù)為自身產(chǎn)品和服務以及云客戶擴大基礎設施投資。我們有幸與NVIDIA建立了長期合作伙伴關系,并期待著將Blackwell GPU的突破性功能帶給我們的云客戶以及包括Google DeepMind在內(nèi)的谷歌團隊,以加速未來的探索進程?!?/p>
亞馬遜總裁兼首席執(zhí)行官Andy Jassy表示: “我們與 NVIDIA 的深度合作可以追溯到 13 年前,當時我們在 AWS 上推出了全球首個 GPU 云實例。如今,我們在云端提供了最為廣泛的 GPU 解決方案,以支持全球那些技術(shù)上最先進的加速工作負載。正因如此,NVIDIA Blackwell GPU能夠在AWS上運行得如此出色,NVIDIA也選擇與AWS共同開發(fā)Project Ceiba,將NVIDIA新一代Grace Blackwell超級芯片與AWS Nitro System的高級虛擬化和超快速的Elastic Fabric Adapter 網(wǎng)絡結(jié)合,以用于NVIDIA自身的AI研發(fā)。通過AWS與NVIDIA工程師的共同努力,我們將持續(xù)創(chuàng)新,使AWS成為每一個想要在云端運行NVIDIA GPU的用戶的最佳選擇?!?/p>
戴爾科技董事會主席兼首席執(zhí)行官Michael Dell表示: “生成式AI對于創(chuàng)建更智能、更可靠和更高效的系統(tǒng)至關重要。戴爾科技與NVIDIA將攜手塑造未來科技。隨著Blackwell的發(fā)布, 我們將繼續(xù)為用戶提供新一代加速產(chǎn)品和服務,以提供推動跨行業(yè)創(chuàng)新所需的工具?!?/p>
谷歌DeepMind聯(lián)合創(chuàng)始人兼首席執(zhí)行官Demis Hassabis表示:“AI 的變革潛力令人難以置信,它將幫助我們解決世界上那些最重要的科學問題。Blackwell突破性的技術(shù)性能將提供所需的關鍵算力,從而幫助那些世界上最聰明的大腦繪制新的科學藍圖。”
Meta公司創(chuàng)始人兼首席執(zhí)行官Mark Zuckerberg表示: “從我們的大語言模型到內(nèi)容推薦、廣告和安全系統(tǒng),AI 已經(jīng)在賦能一切,而且AI在未來將會日益重要。我們期待通過NVIDIA Blackwell幫助訓練我們的開源Llama模型,打造下一代Meta AI和消費產(chǎn)品。”
微軟執(zhí)行董事長兼首席執(zhí)行官Satya Nadella表示: “我們致力于為客戶提供最先進的基礎設施,以賦能其 AI 工作負載。一直以來,我們致力于為云端優(yōu)化NVIDIA GPU,通過在我們的全球數(shù)據(jù)中心采用 GB200 Grace Blackwell 處理器,我們得以在這一進程中再進一步,助力世界各地的組織實現(xiàn)AI落地?!?/p>
OpenAI首席執(zhí)行官Sam Altman表示: “Blackwell 實現(xiàn)了巨大的性能飛躍,并將加速我們提供尖端模型的能力。我們很高興能繼續(xù)與NVIDIA合作,共同提升AI計算。”
Oracle董事長兼首席技術(shù)官Larry Ellison表示: “Oracle與NVIDIA的緊密合作將推動AI、機器學習和數(shù)據(jù)分析領域?qū)崿F(xiàn)質(zhì)和量的突破。為了讓用戶能夠獲取更多具有可操作性的洞察,正需要像Blackwell這樣專為加速計算和生成式AI而打造的、更強大的引擎。”
特斯拉及xAI首席執(zhí)行官Elon Musk表示:“當下的AI領域,NVIDIA硬件無可比擬。”
新架構(gòu)以紀念David Harold Blackwell命名,他不僅是一位專門研究博弈論和統(tǒng)計學的數(shù)學家,也是第一位入選美國國家科學院的黑人學者。這一新架構(gòu)是繼兩年前推出的NVIDIA Hopper?架構(gòu)以來的全新架構(gòu)。
Blackwell的多項創(chuàng)新技術(shù)為加速計算和生成式AI提供助力
憑借六項變革性的技術(shù),Blackwell能夠在擁有高達10萬億參數(shù)的模型上實現(xiàn)AI訓練和實時LLM推理,這些技術(shù)包括:
● 全球最強大的芯片:Blackwell架構(gòu)GPU具有2080億個晶體管,采用專門定制的雙倍光刻極限尺寸4NP TSMC工藝制造,通過10 TB/s的片間互聯(lián),將GPU裸片連接成一塊統(tǒng)一的GPU。
● 第二代Transformer引擎:得益于全新微張量縮放支持,以及集成于NVIDIA TensorRT?-LLM 和 NeMo Megatron框架中的NVIDIA先進動態(tài)范圍管理算法,Blackwell將在新型4位浮點AI推理能力下實現(xiàn)算力和模型大小翻倍。
● 第五代NVLink:為了提升萬億級參數(shù)模型和混合專家AI模型的性能,最新一代NVIDIA NVLink?為每塊GPU提供突破性的1.8TB/s雙向吞吐量,確保多達576塊GPU之間的無縫高速通信,滿足了當今最復雜LLM的需求。
● RAS引擎:采用Blackwell架構(gòu)的GPU包含一個用于保障可靠性、可用性和可維護性的專用引擎。此外,Blackwell架構(gòu)還增加了多項芯片級功能,能夠利用AI預防性維護來運行診斷并預測可靠性相關的問題。這將最大程度地延長系統(tǒng)正常運行時間,提高大規(guī)模AI部署的彈性,使其能夠連續(xù)不間斷運行數(shù)周乃至數(shù)月,同時降低運營成本。
● 安全AI:先進的機密計算功能可以在不影響性能的情況下保護AI模型和客戶數(shù)據(jù),并且支持全新本地接口加密協(xié)議,這對于醫(yī)療、金融服務等高度重視隱私問題的行業(yè)至關重要。
● 解壓縮引擎:專用的解壓縮引擎支持最新格式,通過加速數(shù)據(jù)庫查詢提供極其強大的數(shù)據(jù)分析和數(shù)據(jù)科學性能。未來幾年,每年需要企業(yè)花費數(shù)百億美元的數(shù)據(jù)處理將越來越多地由GPU加速。
一個超大規(guī)模的超級芯片
NVIDIA GB200 Grace Blackwell超級芯片通過900GB/s超低功耗的片間互聯(lián),將兩個NVIDIA B200 Tensor Core GPU與NVIDIA Grace CPU相連。
為了實現(xiàn)超高的AI性能,搭載GB200的系統(tǒng)可與同在今天發(fā)布的NVIDIA Quantum-X800 InfiniBand和Spectrum?-X800以太網(wǎng)平臺連接。這兩個平臺均可提供速度高達800Gb/s的高性能網(wǎng)絡。
GB200是NVIDIA GB200 NVL72的關鍵組件。NVIDIA GB200 NVL72是一套多節(jié)點液冷機架級擴展系統(tǒng),適用于高度計算密集型的工作負載。它將36個Grace Blackwell超級芯片組合在一起,其中包含通過第五代 NVLink 相互連接的72個Blackwell GPU和36個Grace CPU。此外,GB200 NVL72還內(nèi)置NVIDIA BlueField?-3數(shù)據(jù)處理器,可在超大規(guī)模AI云中實現(xiàn)云網(wǎng)絡加速、組合式存儲、零信任安全和 GPU 計算彈性。對于LLM 推理工作負載,相較于同樣數(shù)量的 NVIDIA H100 Tensor Core GPU,GB200 NVL72最高可提供30倍的性能提升以及多達25倍的成本和能耗降低。
該平臺可作為一個單GPU,具有1.4 exaflops的AI性能和30TB的快速內(nèi)存,是組成最新一代DGX SuperPOD的基礎模塊。
NVIDIA提供的HGX B200是一個通過NVLink連接8塊B200 GPU的服務器主板,支持基于x86的生成式AI平臺。基于NVIDIA Quantum-2 InfiniBand和Spectrum-X以太網(wǎng)網(wǎng)絡平臺,HGX B200支持高達400Gb/s的網(wǎng)絡速度。
Blackwell的全球合作伙伴網(wǎng)絡
合作伙伴將從今年晚些時候開始供應采用Blackwell架構(gòu)的產(chǎn)品。
AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure將成為首批提供 Blackwell驅(qū)動實例的云服務提供商。同時NVIDIA云合作伙伴計劃的公司Applied Digital、CoreWeave、Crusoe、IBM Cloud和Lambda也將提供上述服務。Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle EU Sovereign Cloud、Oracle US, UK, and Australian Government Clouds、Scaleway、新加坡電信、Northern Data Group的Taiga Cloud、Yotta Data Service 的Shakti Cloud和YTL Power International等主權(quán)AI云也將提供基于Blackwell架構(gòu)的云服務和基礎設施。
GB200還將通過NVIDIA DGX? Cloud提供,NVIDIA DGX? Cloud是一個與領先的云服務提供商共同設計的AI平臺,可為企業(yè)開發(fā)人員提供專門的基礎設施和軟件訪問權(quán)限,使他們能夠構(gòu)建并部署先進的生成式 AI 模型。AWS、Google Cloud和Oracle Cloud Infrastructure計劃在今年晚些時候托管采用NVIDIA Grace Blackwell的新實例。
Cisco、戴爾科技、慧與、聯(lián)想和Supermicro預計將提供基于Blackwell產(chǎn)品打造的各種服務器。Aivres、永擎電子、華碩、Eviden、Foxconn、技嘉、Inventec、和碩、QCT、Wistron、緯穎和 ZT Systems 也將提供基于Blackwell的服務器。
此外,越來越多的軟件制造商網(wǎng)絡,包括工程仿真領域的全球領導者Ansys、Cadence和Synopsys,將使用基于Blackwell的處理器來加速其用于設計和仿真電氣、機械和制造系統(tǒng)及零件的軟件。他們的客戶可以更低成本、更高能效地使用生成式AI和加速計算,來加速產(chǎn)品上市。
NVIDIA軟件支持
Blackwell 產(chǎn)品組合由生產(chǎn)級AI端到端操作系統(tǒng)NVIDIA AI Enterprise支持。NVIDIA AI Enterprise中包含同日發(fā)布的NVIDIA NIM?推理微服務以及AI框架、程序庫和工具,企業(yè)可以部署在由NVIDIA提供加速的云、數(shù)據(jù)中心及工作站上。了解關于 NVIDIA Blackwell 平臺的更多信息,請觀看GTC主題演講回放并注冊GTC以參加由NVIDIA和行業(yè)領導者帶來的會議。本屆GTC將持續(xù)舉辦至3月21日。
評論