博客專欄

EEPW首頁 > 博客 > 讓模型訓練速度提升2到4倍,「****假設」作者的這個全新PyTorch庫火了

讓模型訓練速度提升2到4倍,「****假設」作者的這個全新PyTorch庫火了

發(fā)布人:機器之心 時間:2022-04-09 來源:工程師 發(fā)布文章
登陸 GitHub 以來,這個項目已經收獲了 800 多個 Star。


隨著越來越多的企業(yè)轉向人工智能來完成各種各樣的任務,企業(yè)很快發(fā)現(xiàn),訓練人工智能模型是昂貴的、困難的和耗時的。
一家公司 MosaicML 的目標正是找到一種新的方法來應對這些層出不窮的挑戰(zhàn)。近日, MosaicML 推出了一個用于高效神經網絡訓練的 PyTorch 庫「Composer」,旨在更快地訓練模型、降低成本,并獲得表現(xiàn)更好的模型。
Composer 是一個用 PyTorch 編寫的開源庫,旨在集成更好的算法來加速深度學習模型的訓練,同時實現(xiàn)更低的成本和更高的準確度。目前項目在 GitHub 平臺已經收獲了超過 800 個 Star。
圖片
項目地址:https://github.com/mosaicml/composer
圖片
Composer 具有一個功能界面(類似于 torch.nn.functional),用戶可以將其集成到自己的訓練循環(huán)中;它還包含一個 Trainer,可以將高效的訓練算法無縫集成到訓練循環(huán)中。
項目中已經部署了 20 幾種加速方法,只需幾行代碼就能應用在用戶的訓練之中,或者與內置 Trainer 一起使用。
總體而言,Composer 具備幾個亮點:

  • 20 多種加速計算機視覺和語言建模訓練網絡的方法。當 Composer 為你完成工作時,你就不需要浪費時間嘗試復現(xiàn)研究論文。

  • 一個易于使用的 Trainer,其編寫的目的是盡可能提高性能,并集成了高效訓練的最佳實踐。

  • 所有加速方法的功能形式,都允許用戶將它們集成到現(xiàn)有的訓練循環(huán)中。

  • 強大、可重現(xiàn)的基線,讓你盡可能地快開始工作。


那么,使用 Composer 能夠獲得怎樣的訓練效果提升呢?
圖片多個模型系列的訓練中減少的時間和成本。
據項目信息介紹,使用 Composer 訓練,你可以做到:

  • ResNet-101 在 ImageNet 上的準確率在 1 小時 30 分鐘內達到 78.1%(AWS 上 49 美元),比基線快 3.5 倍,便宜 71%。

  • ResNet-50 在 ImageNet 上的準確率在 1 小時 14 分鐘內達到 76.51%(AWS 上 40 美元),比基線快 2.9 倍,便宜 65%。

  • 在 4 小時 27 分鐘內將 GPT-2 在 OpenWebText 上的困惑度提高到 24.11(AWS 上 145 美元),比基線快 1.7 倍,便宜 43%。


在 Reddit 社區(qū),項目作者 Jonathan Frankle 現(xiàn)身說法,他介紹說,Composer 是自己關于****假設研究的直接延續(xù)。
圖片
2019 年,F(xiàn)rankle 和 Carbin 的《The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks》獲得了 ICLR 2019 的最佳論文榮譽。在這篇論文中,F(xiàn)rankle 等人發(fā)現(xiàn)標準的剪枝技術會自然地發(fā)現(xiàn)子網絡,這些子網絡經過初始化后能夠有效進行訓練。二人基于這些結果提出了「****假設」(lottery ticket hypothesis):密集、隨機初始化的前饋網絡包含子網絡(「中獎****」),當獨立訓練時,這些子網絡能夠在相似的迭代次數內達到與原始網絡相當的測試準確率。
目前,F(xiàn)rankle 是 Mosaic 公司的首席科學家,推動了 Composer 的打造。
這次,F(xiàn)rankle 表示,深度學習背后的「數學」并沒有什么神圣之處。從根本上改變「數學」是完全沒問題的(比如刪除很多權重)。你將獲得與其他方式不同的網絡,但這不像原始網絡是「正確的」網絡。如果改變「數學」讓你的網絡變得同樣好(例如同樣的準確性)而速度更快,那就是勝利。
如果你愿意打破深度學習背后的「數學」,****假設就是一個例子。Composer 有幾十種技術可以做到這一點,并且擁有與之匹配的加速。
同時,項目作者們也將 Composer 與 PyTorch Lightning 進行了對比:「PyTorch Lightning 是一個具有不同 API 的不同訓練庫。實際上,我們在 PTL 之上構建了我們的第一個 Composer 實現(xiàn)?!?/span>
圖片
PyTorch Lightning 的創(chuàng)建者 William Falcon 也出現(xiàn)在了后續(xù)討論中,但二人似乎未達成共識。
目前,Composer 的訓練器可以應用于眾多模型,包括對于 Resnet-50、Resnet-101、UNet 和 GPT-2 的加速。
圖片
作者表示,未來還將擴展至更多模型,比如 ViT、BERT、分割和目標檢測等等。


*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



關鍵詞: AI

相關推薦

技術專區(qū)

關閉