谷歌首次展示新版語言模型BERT,參數(shù)達4810億個
MLPerf 訓練是一個完整的系統(tǒng)基準測試,用于測試機器學習模型、軟硬件等。上一輪 MLPerf 訓練基準(v1.0)發(fā)布于 5 個月前,與之相比,本次最佳基準測試結果提高了 2.3 倍,在軟硬件和系統(tǒng)規(guī)模方面都有了實質性的改進。
MLPerf 訓練基準的內容由封閉式和開放式兩個部分組成。開放式區(qū)別于封閉式的地方是,開放式的參與者可以提交各種模型,而封閉式為確保一個相對公平的競爭環(huán)境,只允許提交相同的參考模型。
值得一提的是,谷歌在本次基準測試的開放式部分提交了之前從未公開過的新版 BERT 自然語言程序。
新的 BERT 程序規(guī)模比通行的 BERT 標準版本大了 3 個數(shù)量級,神經(jīng)網(wǎng)絡參數(shù)達到 4810 億個,而標準版 BERT 只有 3.4 億個參數(shù)。更多的參數(shù)通常意味著需要更多的計算能力。
據(jù)了解,為了得到更大的 BERT 模型,谷歌使用的計算機搭載了 2048 個 TPU(Tensor Processing Unit)芯片。與英偉達的 GPU 不同,TPU 是谷歌針對機器學習專門定制的芯片。此“2048-TPU 系統(tǒng)”目前可以通過谷歌云服務獲得。
谷歌表示,這一新穎的語言模型反映了 AI 規(guī)模日益增長的重要性。
谷歌還說,其能夠以 63% 的效率運行龐大的 BERT 模型,這比英偉達和微軟共同開發(fā)的 Megatron-Turing 語言模型 52% 的效率要好。該效率是通過相對于理論容量每秒執(zhí)行的浮點運算數(shù)量來衡量的。
構建越大的 AI 深度學習程序,越需要使用更多的 GPU 芯片或新型加速器芯片。研究人員認為,程序的準確性隨著 AI 規(guī)模的增加而增加。
谷歌機器學習基礎設施負責人阿魯沙·塞爾萬(Aarush Selvan)說:“我們一直在確保向 MLPerf 提交的文件與自身內部需求以及機器學習行業(yè)的需求完全一致。培訓 AI 大模型在谷歌內部變得越來越重要。其是我們研究和生產(chǎn)的一大重點,也是我們的云客戶所關注的重點?!?br />
塞爾萬還說道,AI 大模型有著成百上千億個,甚至超過萬億的參數(shù)。在 MLPerf 競賽中有某種大型基準是非常有好處的,MLCommons 應該考慮更多的大模型來衡量大規(guī)模培訓的表現(xiàn),像 ResNet-50 這樣較老、較小的網(wǎng)絡“只能給我們提供一個代理”。
MLCommons 的執(zhí)行董事大衛(wèi)·坎特(David Kanter)對此表示,大模型的建立需要所有成員共同決定。他同時指出,使用小型神經(jīng)網(wǎng)絡作為測試,能夠讓更多的成員參與競爭。這有助于為整個社區(qū)生產(chǎn)更多有價值的工程產(chǎn)品,并幫助推動行業(yè)不斷向前發(fā)展。
“基準的關鍵是要公平和有代表性,而且也得考慮到經(jīng)營者的承受能力,不能讓其破產(chǎn)。從理論上講,我們可以把 GPT-3 作為 MLPerf 基準,但培訓 GPT-3 相當昂貴,需要數(shù)千萬美元?!笨蔡匮a充說。據(jù)悉,GPT-3 是 OpenAI 在 2020 年推出的有著 1750 億參數(shù)的自然語言模型。
此外,MLPerf 標準測試的代碼對每個人都是開放的,任何 AI 研究人員都可以復制測試結果進行重新驗證。
谷歌今年早些時候在高度并行化神經(jīng)網(wǎng)絡方面做了一定研究,其中概述的設計與本次展示的巨型 BERT 模型類似。該公司認為,巨型 BERT 模型經(jīng)過訓練,可以產(chǎn)生更具準確性的結果。
在封閉式部分測試中,谷歌使用了較小的 BERT 模型。同時,為了達到與其他供應商在封閉式部分相同的準確性,谷歌還使用了較少的文本數(shù)據(jù)樣本。封閉式部分要求一個程序訓練近 5 億個令牌序列,每個序列的長度大多為 128 個令牌。谷歌的程序只使用了大約 2000 萬個令牌序列,每個序列長度為 512 個令牌。
塞爾萬說,谷歌打算在未來繼續(xù)提交 MLPerf 的封閉式部分基準?!懊髂昊蛟S將看到所有人回到封閉式賽區(qū),雖然不能保證,但我們計劃那樣做?!彼f。
整體來看,MLPerf 訓練基準(v1.1)的結果進一步推動了 MLCommons 的目標,即通過比較機器學習系統(tǒng)、軟件和解決方案,提供基準和指標,使行業(yè)競爭環(huán)境更加公平。
“通過對體系結構、系統(tǒng)規(guī)模、軟件、模型劃分等方面的優(yōu)化,”坎特說,“供應商正設法加速神經(jīng)網(wǎng)絡的性能,其速度比摩爾定律的歷史軌跡快 11 倍?!?br />
據(jù)了解,本次的基準測試共有 14 個組織參與,包括微軟 Azure、百度、戴爾、富士通、技嘉、谷歌、Graphcore、HabanaLabs、HPE、浪潮、聯(lián)想、英偉達、三星和超微,發(fā)布的同行評審結果數(shù)量超過 185 個。
MLCommons 與其合作伙伴,包括全球技術提供商、學者和研究人員,通過各種方式為整個機器學習行業(yè)構建工具。
“回顧 2018 年的第一輪 MLPerf 訓練,我們一些基準的性能提高了 30 倍,”坎特說,“這種性能的快速增長將激發(fā)出新的機器學習創(chuàng)新,最終使社會受益?!?/span>
-End-
參考:
https://www.zdnet.com/article/google-uses-mlperf-competition-to-showcase-performance-on-gigantic-version-of-bert-language-model/
https://mlcommons.org/en/news/mlperf-training-v11/
*博客內容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。
電機保護器相關文章:電機保護器原理