新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > Habana Gaudi2性能穩(wěn)超英偉達A100,助力實現(xiàn)高效AI訓(xùn)練

Habana Gaudi2性能穩(wěn)超英偉達A100,助力實現(xiàn)高效AI訓(xùn)練

—— MLPerf測試結(jié)果驗證了Gaudi2在ResNet和BERT模型訓(xùn)練時間上的優(yōu)勢
作者: 時間:2022-07-04 來源:電子產(chǎn)品世界 收藏

近日,英特爾宣布Habana? Gaudi?2深度學(xué)習(xí)處理器在MLPerf行業(yè)測試中表現(xiàn)優(yōu)于英偉達A100提交的AI訓(xùn)練時間,結(jié)果突顯了5月在英特爾On產(chǎn)業(yè)創(chuàng)新峰會上發(fā)布的Gaudi2處理器在視覺(ResNet-50)和語言(BERT)模型上訓(xùn)練時間的優(yōu)勢。

本文引用地址:http://www.butianyuan.cn/article/202207/435893.htm

英特爾公司執(zhí)行副總裁兼數(shù)據(jù)中心與人工智能事業(yè)部總經(jīng)理 Sandra Rivera表示:非常高興能與大家分享Gaudi 2MLPerf基準測試中的出色表現(xiàn),我也為英特爾團隊在產(chǎn)品發(fā)布僅一個月取得的成就感到自豪。我們相信,在視覺和語言模型中提供領(lǐng)先的性能能夠為客戶帶來價值,有助于加速其AI深度學(xué)習(xí)解決方案。

借助Habana LabsGaudi平臺,英特爾數(shù)據(jù)中心團隊能夠?qū)W⒂谏疃葘W(xué)習(xí)處理器技術(shù),讓數(shù)據(jù)科學(xué)家和機器學(xué)習(xí)工程師得以高效地進行模型訓(xùn)練,并通過簡單的代碼實現(xiàn)新模型構(gòu)建或現(xiàn)有模型遷移,提高工作效率的同時降低運營成本。

Habana Gaudi2處理器在縮短訓(xùn)練時間(TTT)方面相較第一代Gaudi有了顯著提升。Habana Labs20225月提交的Gaudi2處理器在視覺和語言模型訓(xùn)練時間上已超越英偉達A100-80GMLPerf測試結(jié)果。其中,針對視覺模型ResNet-50Gaudi2處理器的TTT結(jié)果相較英偉達A100-80GB縮短了36%,相較戴爾提交的同樣針對ResNet-50BERT模型、采用8個加速器的A100-40GB服務(wù)器,Gaudi2TTT測試結(jié)果則縮短了45%。 

image.png

image.png

MLCommons發(fā)布的數(shù)據(jù),20226月。https://mlcommons.org/en/training-normal-20/

 

相比于第一代Gaudi處理器,Gaudi2ResNet-50模型的訓(xùn)練吞吐量提高了3倍,BERT模型的訓(xùn)練吞吐量提高了4.7倍。這些歸因于制程工藝從16納米提升至7納米、Tensor處理器內(nèi)核數(shù)量增加了三倍、增加GEMM引擎算力、封裝的高帶寬存儲容量提升了三倍、SRAM帶寬提升以及容量增加一倍。對于視覺處理模型的訓(xùn)練,Gaudi2處理器集成了媒體處理引擎,能夠獨立完成包括AI訓(xùn)練所需的數(shù)據(jù)增強和壓縮圖像的預(yù)處理。

兩代Gaudi處理器的性能都是在沒有特殊軟件操作的情況下通過Habana客戶開箱即用的商業(yè)軟件棧實現(xiàn)的。

通過商用軟件所提供的開箱即用性能,在Habana 8GPU服務(wù)器與HLS-Gaudi2參考服務(wù)器上進行測試比對。其中,訓(xùn)練吞吐量來自于NGCHabana公共庫的TensorFlow docker,采用雙方推薦的最佳性能參數(shù)在混合精度訓(xùn)練模式下進行測量。值得注意的是,吞吐量是影響最終訓(xùn)練時間收斂的關(guān)鍵因素。

 

image.png

圖形測試配置詳見說明部分。

image.png

圖形測試配置見說明部分。

 

除了Gaudi2MLPerf測試中的卓越表現(xiàn),第一代Gaudi128個加速器和256個加速器的ResNet基準測試中展現(xiàn)了強大的性能和令人印象深刻的近線性擴展,支持客戶高效系統(tǒng)擴展。

Habana Labs首席運營官Eitan Medina表示:我們最新的MLPerf測試結(jié)果證明Gaudi2在訓(xùn)練性能方面顯著優(yōu)勢。我們將持續(xù)深度學(xué)習(xí)訓(xùn)練架構(gòu)和軟件創(chuàng)新,打造最具性價比的AI訓(xùn)練解決方案。

 

關(guān)于MLPerf基準測試MLPerf社區(qū)旨在設(shè)計公平且極具實際價值的基準測試,以公平地測量機器學(xué)習(xí)解決方案的準確度、速度和效率。該社區(qū)由來自學(xué)術(shù)界、研究實驗室和業(yè)界的AI領(lǐng)導(dǎo)者創(chuàng)建,他們確立基準并制定了一套嚴格的規(guī)則,以確保所有參與者均能夠公平公正地進行性能比對。基于一套明確的規(guī)則,以及能夠?qū)Χ说蕉巳蝿?wù)進行公平比較,目前MLPerfAI行業(yè)唯一可靠的基準測試。此外,MLPerf基準測試結(jié)果要經(jīng)過為期一個月的同行評審,這將進一步驗證報告結(jié)果。

 

說明:

ResNet-50性能對比中使用的測試配置

A100-80GBHabana20224月在Azure實例Standard_ND96amsr_A100_v4上進行測量,使用了一個A100-80GB,其中應(yīng)用了NGCTF docker 22.03-tf2-py3optimizer=sgd, BS=256

A100-40GBHabana20224月在DGX-A100上進行測量,使用了一個A100-40GB,其中應(yīng)用了NGCTF docker 22.03-tf2-py3optimizer=sgd, BS=256

V100-32GB?Habana20224月在p3dn.24xlarge上進行測量,使用了一個V100-32GB,其中應(yīng)用了NGCTF docker 22.03-tf2-py3optimizer=sgd, BS=256

Gaudi2Habana20225月在Gaudi2-HLS系統(tǒng)上進行測量,使用了一個Gaudi2,其中應(yīng)用了SynapseAI TF docker 1.5.0BS=256

結(jié)果可能有所不同。

BERT性能對比中使用的測試配置

A100-80GBHabana20224月在Azure實例Standard_ND96amsr_A100_v4上進行測試,使用了一個A100-80GB,包含NGCTF docker 22.03-tf2-py3Phase-1Seq len=128BS=312,accu steps=256Phase-2seq len=512,BS=40,accu steps=768 

A100-40GBHabana20224月在DGX-A100上進行測試,使用了一個A100-40GB,包含NGCTF docker 22.03-tf2-py3Phase-1Seq len=128,BS=64,accu steps=1024;Phase-2seq len=512,BS=16accu steps=2048

V100-32GBHabana20224月在上p3dn.24xlarge進行測試,使用了一個V100-32GB,包含NGCTF docker 21.12-tf2-py3Phase-1Seq len=128,BS=64accu steps=1024;Phase-2seq len=512,BS=8accu steps=4096

Gaudi2Habana20225月在上Gaudi2-HLS進行測試,使用了一個Gaudi2,包含SynapseAI TF docker 1.5.0Phase-1Seq len=128BS=64,accu steps=1024Phase-2seq len=512,BS=16,accu steps=2048

結(jié)果可能有所不同。

 

Habana Labs、Habana、Habana標識、GaudiSynapseAIHabana Labs的商標。




關(guān)鍵詞: Habana Gaudi2 AI訓(xùn)練 Intel

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉