臺積電4納米打造英偉達(dá)Blackwell架構(gòu)GPU,建構(gòu)迄今最強GB200
GPU大廠英偉達(dá)19日清晨在美國加州圣荷西召開的GTC2024,發(fā)表號稱迄今最強AI芯片GB200,今年稍晚出貨。GB200采新Blackwell架構(gòu)GPU,英偉達(dá)創(chuàng)辦人暨執(zhí)行長黃仁勛表示,兩年前Hopper架構(gòu)GPU已非常出色,但現(xiàn)在需要更強大的GPU。
本文引用地址:http://butianyuan.cn/article/202403/456565.htm英偉達(dá)每兩年更新頻率,升級一次GPU架構(gòu),大幅提升AI芯片性能。英偉達(dá)2022年發(fā)表Hopper架構(gòu)H100AI芯片后,引領(lǐng)全球AI市場風(fēng)潮。如今再推采Blackwell架構(gòu)的AI芯片性能更強大,更擅長處理AI任務(wù),Blackwell架構(gòu)是以數(shù)學(xué)家David Harold Blackwell之名命名。
黃仁勛表示,Blackwell架構(gòu)GPU的AI運算性能在FP8及NEW FP6都可達(dá)20petaflops,是前一代Hopper架構(gòu)運算性能8petaflops的2.5倍。NEWFP4更可達(dá)40petaflops,是前代Hopper架構(gòu)GPU運算性能8petaflops5倍。取決于各種Blackwell架構(gòu)GPU設(shè)備的記憶體容量和頻寬配置,工作運算執(zhí)行力的實際性能可能會更高。黃仁勛強調(diào),有額外處理能力,使人工智慧企業(yè)訓(xùn)練更大更復(fù)雜的模型。
Blackwell架構(gòu)GPU的體積龐大,采臺積電4納米(4NP)打造,整合兩個獨立制造的裸晶(Die),共2,080億個電晶體,透過NVLink5.0介面像拉鏈綁住芯片。英偉達(dá)用10TB/sec NVLink5.0連接兩塊裸晶,官方稱介面為NV-HBI。Blackwell complex的NVLink5.0介面為1.8TB頻寬,是前代Hopper架構(gòu)GPU NVLink4.0介面速度的兩倍。
英偉達(dá)最新GB200 AI芯片,含兩個Blackwell GPU和一個Arm架構(gòu)Grace CPU,推理模型性能比H100提升30倍,成本和能耗降至25分之一。
英偉達(dá)還對有大型需求的企業(yè)提供服務(wù)器成品,提供完整服務(wù)器出貨,如GB200 NVL72服務(wù)器,提供36個CPU和72個Blackwell架構(gòu)GPU,完善一體水冷散熱方案,可實現(xiàn)總計720petaflops的AI訓(xùn)練性能或1,440petaflops推理性能。電纜長度累計近2英里,共5,000條獨立電纜。
亞馬遜AWS計劃采購2萬片GB200芯片組建的服務(wù)器集群,部署27兆個參數(shù)模型。除了亞馬遜AWS,DELL、Alphabet、Meta、微軟、OpenAI、Oracle和TESLA成為Blackwell系列的采用者之一。
評論