清華發(fā)布《AI芯片技術(shù)白皮書》:新計算范式,挑戰(zhàn)馮諾依曼、CMOS瓶頸
隨著底層芯片技術(shù)的進步,人工智能算法也將獲得更好的支持和更快的發(fā)展。而在這一過程中,人工智能本身也很有可能被用于研發(fā)新的芯片技術(shù),形成算法和芯片相互促進的良性循環(huán)局面。
本文引用地址:http://butianyuan.cn/article/201901/397163.htm通過《AI芯片技術(shù)白皮書》,可以清晰地看到人工智能芯片是人工智能產(chǎn)業(yè)和半導(dǎo)體產(chǎn)業(yè)交叉融合的新節(jié)點,涉及多個學(xué)科、多個領(lǐng)域的理論和技術(shù)基礎(chǔ),突顯對基礎(chǔ)扎實、創(chuàng)新能力強的人才的需求。
科技巨頭的AI芯片動作頻出
從最近幾大科技巨頭在AI芯片領(lǐng)域的動作頻頻就不難看出。比如亞馬遜開始設(shè)計制造AI芯片,從而為Alexa語音助手的質(zhì)量提升以及Echo智能音響設(shè)備提供更強大的技術(shù)能力,而蘋果、三星、華為在智能手機處理器上集成深度學(xué)習(xí)引擎方面也展開了一場較量。
其背后的推動力來自于深度學(xué)習(xí)對超強算力的需求。NVIDIA顯然是這波浪潮中最大的受益者,其股價從2016年的32.25美元上漲至2018年的245.8美元,兩年間市值飆升近8倍。被認為是NVIDIA最大競爭對手的谷歌宣布了對第二代TPU的全面開放,而且價格誘人,每云TPU每小時6.5美元??梢哉f是又向NVIDIA開了一炮。
云端+邊緣結(jié)合是AI芯片發(fā)展現(xiàn)狀
在應(yīng)用場景上,AI芯片的應(yīng)用主要分為云端和終端,以深度學(xué)習(xí)的算法來說,云端人工智能硬件負責(zé)“訓(xùn)練+推斷”,終端人工智能硬件負責(zé)“推斷”,因而終端的計算量更小,相對沒有傳輸問題。
總的來說,云側(cè)AI處理主要強調(diào)精度、處理能力、內(nèi)存容量和帶寬,同時追求低延時和低功耗;邊緣設(shè)備中的AI處理則主要關(guān)注功耗、響應(yīng)時間、體積、成本和隱私安全等問題。目前云和邊緣設(shè)備在各種AI應(yīng)用中往往是配合工作。最普遍的方式是在云端訓(xùn)練神經(jīng)網(wǎng)絡(luò),然后在云端或者邊緣設(shè)備進行推斷。
?、僭贫薃I計算:目前各大科技巨頭紛紛在自有云平臺基礎(chǔ)上搭載人工智能系統(tǒng),主要有IBM的waston、亞馬遜的AWS、以及國內(nèi)的阿里云、百度云平臺等。其中英偉達的GPU采用更為廣泛,賽靈思、英特爾、百度等廠商也在積極采用FPGA在云端進行加速,一些初創(chuàng)公司,如深鑒科技等也在開發(fā)專門支持FPGA的AI開發(fā)工具。另外,AI領(lǐng)域?qū)S眉軜?gòu)芯片ASIC則因其更好的性能和功耗,成為云端領(lǐng)域新的攪局者,如谷歌的TPU。
?、谶吘堿I計算:智能手機是目前應(yīng)用最為廣泛的邊緣計算設(shè)備,包括蘋果、華為、高通、聯(lián)發(fā)科和三星在內(nèi)的手機芯片廠商紛紛推出或者正在研發(fā)專門適應(yīng)AI應(yīng)用的芯片產(chǎn)品。自動駕駛是未來邊緣AI計算的最重要應(yīng)用之一,MobileEyeSOC和NVIDIADrivePX系列提供神經(jīng)網(wǎng)絡(luò)的處理能力可以支持半自動駕駛和完全自動駕駛。
新計算范式讓AI芯片更上一層樓
人工智能產(chǎn)業(yè)得以快速發(fā)展,都離不開芯片。隨著大數(shù)據(jù)的積聚、理論算法的革新、計算能力的提升及網(wǎng)絡(luò)設(shè)施的發(fā)展,使得持續(xù)積累了半個多世紀的人工智能產(chǎn)業(yè),又一次迎來革命性的進步,人工智能的研究和應(yīng)用進入全新的發(fā)展階段。
AI芯片的計算既主要特點:
①處理內(nèi)容往往是非結(jié)構(gòu)化數(shù)據(jù),如視頻、圖像及語音等,需要通過樣本訓(xùn)練、擬合基環(huán)境交互等方式,利用大量數(shù)據(jù)來訓(xùn)練模型,再用訓(xùn)練好的模型處理數(shù)據(jù);
?、谔幚磉^程需要很大的計算量,基本的計算主要是線性代數(shù)運算,大規(guī)模并行計算硬件更為適合;
?、厶幚磉^程參數(shù)量大,需要巨大的存儲容量,高帶寬、低延時的訪存能力,及計算單元和存儲器件間豐富且靈活的連接。
評論