新聞中心

EEPW首頁 > 消費(fèi)電子 > 業(yè)界動態(tài) > 收購Nervana后 Intel在AI芯片上進(jìn)展如何?

收購Nervana后 Intel在AI芯片上進(jìn)展如何?

作者: 時(shí)間:2016-12-08 來源:數(shù)盟社區(qū) 收藏

  8月9日,對Nervana的收購以4.08億美元告終。作為對比,英特爾財(cái)報(bào)顯示,其今年第三季度的凈利潤為34億美元。以如此之高的價(jià)格收購一個(gè)僅有48人的團(tuán)隊(duì),有自己的考量。

本文引用地址:http://butianyuan.cn/article/201612/341370.htm

  當(dāng)年為了追逐IoT的步伐,錯(cuò)失了移動芯片市場,現(xiàn)如今其競爭對手NVIDIA已造出Tesla P100,Intel在芯片領(lǐng)域還遲遲沒有動靜。此次收購Nervana可謂是Intel彎道超車的明智之舉,將Nervana的軟件架構(gòu)部署至Intel的硬件上,此次合作對Nervana和Intel來說無疑是雙贏的。

  收購當(dāng)日,Nervana聯(lián)合創(chuàng)始人Naveen Rao便表示:“融資對我們來說相對比較容易,但是被英特爾收購,就意味著我們能夠接觸到曾經(jīng)對于我們來說觸不可及的技術(shù)。” 此處的“技術(shù)”所指,是硬件層面。

  Nervana的業(yè)務(wù)著眼于基于云的深度學(xué)習(xí)服務(wù),其主要深度學(xué)習(xí)框架Neon在主流的深度學(xué)習(xí)網(wǎng)絡(luò)例如AlexNet、VGG、GoogLeNet上均性能優(yōu)異;具備強(qiáng)大的易用性及可擴(kuò)展性,支持CNN、RNN、LSTM、GRU、BatchNorm等模型。Neon在卷積計(jì)算時(shí)采用了Winograd算法,在數(shù)據(jù)載入層面也做了很多優(yōu)化。Nervana表示,Neon的計(jì)算速率是Caffe的兩倍。

    

 

  GPU近年來被用作深度學(xué)習(xí)處理器,實(shí)為無奈之舉。如今,有了Intel的加持,Nervana正計(jì)劃推出其針對深度學(xué)習(xí)算法的定制芯片Nervana Engine。目前的神經(jīng)網(wǎng)絡(luò)訓(xùn)練處在依賴海量數(shù)據(jù)的階段,我們希望用更多的數(shù)據(jù)為系統(tǒng)帶來更高的準(zhǔn)確性,這使得訓(xùn)練效率至關(guān)重要。單純地通過增加處理器的數(shù)量來擴(kuò)展其性能或許可以解一時(shí)之需,但當(dāng)處理器數(shù)量達(dá)到一定程度,I/O能力又成為瓶頸。

  對此,英特爾中國研究院院長宋繼強(qiáng)表示:“Nervana技術(shù)可以更高效地定義內(nèi)存的訪問帶寬和計(jì)算密度,讓它很好地匹配當(dāng)前數(shù)據(jù)量增大的需求。同時(shí)可以讓多個(gè)節(jié)點(diǎn)并行去支持這種大模型的訓(xùn)練,所以我們可以看到近乎一種線性的性能的擴(kuò)展?!?/p>

  相比GPU,Nervana Engine在訓(xùn)練方面可以提升10倍性能。與Tesla P100類似,該芯片也利用16-bit半精度浮點(diǎn)計(jì)算單元和大容量高帶寬內(nèi)存(HBM,計(jì)劃為32GB,是競品P100的兩倍),摒棄了大量深度學(xué)習(xí)不需要的通用計(jì)算單元。

    

 

  在硬件基礎(chǔ)上,Nervana于今年11月份推出了Intel Nervana Graph平臺。該框架由三部分組成:用于創(chuàng)建計(jì)算圖的API、用于處理常見深度學(xué)習(xí)工作流的前端API(目前支持TensorFlow和Neon)、以及用于在 CPU/GPU/Nervana Engine上編譯執(zhí)行計(jì)算圖的轉(zhuǎn)換器API。

  發(fā)展的良性閉環(huán)

  Intel方面,在收購Nervana后,Intel正式提出發(fā)展的良性閉環(huán)概念。Intel提供從嵌入式端到云端、從底層到應(yīng)用層的完整實(shí)現(xiàn)方案。

    

 

  首先,在硬件層面,Intel處理器能為各種AI硬件提供支持。對于前端設(shè)備,Intel推出Movidius硬件平臺,以滿足前端設(shè)備功耗、預(yù)算、尺寸等限制。同時(shí),在面向硬件優(yōu)化的過程中,Intel提出相應(yīng)的庫。具體包括:針對數(shù)學(xué)運(yùn)算的庫、針對數(shù)據(jù)分析的庫、針對通訊加速的庫、以及針對Python語言的庫等等。在框架層面,Intel支持所有的開源框架,這意味著開發(fā)者不需要改變使用習(xí)慣,就能使用Intel的各項(xiàng)架構(gòu)支持。更上層的,Intel提供深度學(xué)習(xí)SDK、Nervana等平臺。

  在軟件層面,宋繼強(qiáng)表示:“目前的深度神經(jīng)網(wǎng)絡(luò)還有很多技術(shù)點(diǎn)有待突破,神經(jīng)網(wǎng)只是實(shí)現(xiàn)人工智能的一個(gè)工具,但未必是最后的工具。”對于AI算法,Intel目前正致力于如何使系統(tǒng)實(shí)現(xiàn)更少的數(shù)據(jù)及人力依賴;如何讓模型更稀疏;如何壓縮模型使之更易存儲;如何對模型剪裁使其運(yùn)算量最少;如何使計(jì)算精度下降,甚至降至一位。

  對于Intel的主營業(yè)務(wù),處理器制造來說,用戶有了更多元化的選擇。


上一頁 1 2 下一頁

關(guān)鍵詞: Intel AI

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉