新聞中心

EEPW首頁 > 智能計(jì)算 > 新品快遞 > 性能可提升30倍英偉達(dá)發(fā)布全新構(gòu)架,一套或售20萬美元

性能可提升30倍英偉達(dá)發(fā)布全新構(gòu)架,一套或售20萬美元

作者: 時間:2024-03-19 來源:網(wǎng)易科技 收藏

3月19日消息,當(dāng)?shù)貢r間周一,在美國加州圣何塞(San Jose)舉辦的全球開發(fā)者大會上,隆重發(fā)布了最新一代人工智能專用GPU芯片以及運(yùn)行人工智能模型的軟件,意圖進(jìn)一步鞏固其作為人工智能領(lǐng)域首選供應(yīng)商的地位。

本文引用地址:http://butianyuan.cn/article/202403/456497.htm

推出的新一代人工智能GPU架構(gòu)命名為Blackwell,首款基于該架構(gòu)的GB200芯片預(yù)計(jì)將在今年晚些時候推出。

在處理大型語言模型(LLM)推理工作負(fù)載時,GB200性能可提升30倍,同時在成本和能效上也有顯著提升。稱,與H100相比,“GB200能將成本和能耗降低至多達(dá)25倍”。

盡管當(dāng)前市面上如Hopper架構(gòu)的H100芯片等舊款產(chǎn)品依然供不應(yīng)求,英偉達(dá)仍通過推出更高性能的新芯片來吸引客戶,鼓勵他們持續(xù)下單。

自2022年底,隨著OpenAI推出聊天機(jī)器人ChatGPT,掀起了一股人工智能熱潮,英偉達(dá)股價隨之飆升五倍,營業(yè)收入也增長了逾兩倍。英偉達(dá)的高性能GPU對于訓(xùn)練和運(yùn)行大型人工智能模型至關(guān)重要。像微軟、Meta這樣的科技巨頭,都斥資幾十億美元購買這種芯片。英偉達(dá)首席執(zhí)行官在大會上表示:“Hopper架構(gòu)固然出色,但我們追求的是更加強(qiáng)大的GPU?!?/p>

英偉達(dá)股價在周一盤后交易中微跌超過1%。

為了讓客戶在面對日益增多的競爭產(chǎn)品時更傾向于選擇英偉達(dá)芯片,公司還推出了一款名為NIM的付費(fèi)軟件,使得部署人工智能變得更加簡單。

英偉達(dá)高管表示,公司正從單一芯片供應(yīng)商轉(zhuǎn)型為類似于微軟或蘋果那樣的平臺提供者,其他公司可以在其平臺上開發(fā)軟件。

坦言:“Blackwell不僅僅是一款芯片,它代表的是一個平臺?!?/p>

英偉達(dá)企業(yè)計(jì)算部門副總裁馬努維爾·達(dá)斯(Manuvir Das)在接受采訪時表示:“最暢銷的商業(yè)產(chǎn)品仍是GPU,軟件則是為了幫助用戶以不同的方式使用GPU?!彼a(bǔ)充道:“當(dāng)然,我們依然在致力于產(chǎn)品的創(chuàng)新。但現(xiàn)在,我們真正實(shí)現(xiàn)了轉(zhuǎn)變,已經(jīng)發(fā)展出了自己的商業(yè)軟件業(yè)務(wù)?!?/p>

英偉達(dá)新軟件能讓在所有英偉達(dá)GPU上運(yùn)行程序變得更加簡便,即便是對于那些老款GPU,它們雖更適合于部署人工智能應(yīng)用,而非開發(fā),也能輕松應(yīng)對。

達(dá)斯說:“如果您是開發(fā)者,手中有一個備受期待的模型,希望能讓更多人采用,只需將其部署在NIM上。我們承諾將兼容所有英偉達(dá)GPU,確保模型能觸及廣泛用戶群?!?/p>

Hopper架構(gòu)的繼任者Blackwell

每隔兩年,英偉達(dá)都會更新其GPU架構(gòu),從而實(shí)現(xiàn)性能的顯著躍升。在過去一年中,眾多發(fā)布的人工智能模型均在2022年宣布的Hopper架構(gòu)基礎(chǔ)上進(jìn)行訓(xùn)練,此架構(gòu)涵蓋了包括H100在內(nèi)的多款芯片。

據(jù)英偉達(dá)介紹,基于Blackwell架構(gòu)的GB200芯片將為人工智能領(lǐng)域公司帶來性能上巨大的飛躍,其人工智能計(jì)算能力可達(dá)每秒20千萬億次,遠(yuǎn)超過H100芯片的每秒4千萬億次。


這一強(qiáng)大的計(jì)算能力將使企業(yè)得以訓(xùn)練規(guī)模更大、復(fù)雜度更高的人工智能模型。

GB200芯片還特別集成了英偉達(dá)的高性能Transformer推理引擎,該技術(shù)專為運(yùn)行基于Transformer架構(gòu)的人工智能設(shè)計(jì),正是構(gòu)成流行聊天機(jī)器人ChatGPT核心技術(shù)的關(guān)鍵部分。

Blackwell架構(gòu)的GPU芯片體積龐大,實(shí)際上是由兩塊獨(dú)立制造的芯片集成于一塊臺積電代工的芯片上。英偉達(dá)同時推出了配套的GB200 NVLink 2服務(wù)器,內(nèi)置72塊Blackwell架構(gòu)GPU,以及其他用于人工智能模型訓(xùn)練的專業(yè)組件。

知名云服務(wù)提供商,包括亞馬遜、谷歌、微軟及甲骨文等,均將提供GB200芯片的云服務(wù)。每套GB200系統(tǒng)由兩塊基于Blackwell架構(gòu)的B200 GPU和一塊基于ARM架構(gòu)的Grace CPU組成。英偉達(dá)透露,亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)計(jì)劃建立一個包含2萬套GB200系統(tǒng)的超級計(jì)算集群。

英偉達(dá)表示,亞馬遜的服務(wù)器集群能夠部署達(dá)到27萬億個參數(shù)的人工智能模型,規(guī)模遠(yuǎn)超目前已知最大的GPT-4模型,后者擁有1.7萬億個參數(shù)。許多人工智能研究人員認(rèn)為,擁有更多參數(shù)和數(shù)據(jù)的超大模型能夠展現(xiàn)出更為強(qiáng)大的能力。

雖然英偉達(dá)未公布GB200芯片及其系統(tǒng)的具體售價,但根據(jù)分析師估計(jì),參照Hopper架構(gòu)H100芯片的售價范圍(每塊約2.5萬至4萬美元),一整套GB200系統(tǒng)的成本可能高達(dá)20萬美元。

英偉達(dá)的推理微服務(wù)

英偉達(dá)還宣布,在其企業(yè)軟件訂閱服務(wù)中新增了一款名為NIM的產(chǎn)品,即英偉達(dá)推理微服務(wù)( Inference Microservices)的縮寫,旨在簡化使用舊型號GPU進(jìn)行人工智能推理和軟件運(yùn)行的過程,使企業(yè)能夠繼續(xù)利用現(xiàn)有的數(shù)億塊英偉達(dá)GPU資源。相較于訓(xùn)練新的人工智能模型,推理計(jì)算所需的計(jì)算資源更少,因此,企業(yè)可以通過NIM更加便捷地運(yùn)行自己的人工智能模型,而不必依賴于OpenAI等公司提供的計(jì)算服務(wù)。

作為其戰(zhàn)略的一部分,英偉達(dá)鼓勵購買其服務(wù)器的客戶訂閱英偉達(dá)企業(yè)服務(wù),并按每塊GPU每年4500美元的標(biāo)準(zhǔn)收取許可費(fèi)。此外,英偉達(dá)將與微軟、Hugging Face等領(lǐng)先的人工智能企業(yè)合作,確保它們開發(fā)的人工智能模型能夠在所有兼容的英偉達(dá)芯片上順暢運(yùn)行。開發(fā)者可通過NIM服務(wù),無需復(fù)雜配置,就能在自己的服務(wù)器或基于云的英偉達(dá)服務(wù)器上高效地運(yùn)行模型。

“在原本調(diào)用OpenAI服務(wù)的代碼中,僅需替換一行代碼,即可將其連接至英偉達(dá)提供的NIM服務(wù),”達(dá)斯解釋說。

英偉達(dá)表示, NIM軟件不僅能在云服務(wù)器上運(yùn)行,還能使配備英偉達(dá)GPU的筆記本電腦上順暢運(yùn)行人工智能應(yīng)用,進(jìn)一步擴(kuò)展了NIM服務(wù)的應(yīng)用場景。



關(guān)鍵詞: 英偉達(dá) NVIDIA 黃仁勛

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉