用于邊緣設(shè)備的AI為設(shè)備制造商營(yíng)造機(jī)會(huì)
作者 Werner Goertz Annette Jump Gartner個(gè)人科技團(tuán)隊(duì)研究總監(jiān) Alan Priestley Gartner研究總監(jiān)
本文引用地址:http://butianyuan.cn/article/201802/376155.htm摘要:在持續(xù)完善機(jī)器學(xué)習(xí)模型和訓(xùn)練過(guò)程中,各種個(gè)人設(shè)備(如:移動(dòng)設(shè)備、汽車(chē)和物聯(lián)網(wǎng))發(fā)揮著不可或缺的作用。著重闡述了個(gè)人設(shè)備在優(yōu)化深度學(xué)習(xí)架構(gòu)中發(fā)揮的關(guān)鍵作用。
傳統(tǒng)的機(jī)器學(xué)習(xí)包括兩個(gè)功能:訓(xùn)練和推理(運(yùn)行時(shí)間)。訓(xùn)練模型(參見(jiàn)圖1)通過(guò)對(duì)比真實(shí)事件(例如,捕捉圖像中的對(duì)象)實(shí)現(xiàn)持續(xù)改進(jìn)和完善。在傳統(tǒng)模型中,訓(xùn)練和推理完全在云中運(yùn)行(圖1中左側(cè)的垂直箭頭)。然而,這種模式最終會(huì)遇到可擴(kuò)展性問(wèn)題,如:不可接受的延遲,依賴(lài)永遠(yuǎn)在線的帶寬和數(shù)據(jù)隱私問(wèn)題等。因此,一種新的機(jī)器學(xué)習(xí)架構(gòu)正在興起,處于網(wǎng)絡(luò)邊緣的設(shè)備在機(jī)器學(xué)習(xí)中扮演一定角色,尤其是在推理(右側(cè)垂直箭頭所示)方面。
對(duì)于各種設(shè)備制造商而言,這種新的分布式架構(gòu)是很好的選擇??萍籍a(chǎn)品管理領(lǐng)導(dǎo)者必須了解這一新興趨勢(shì),掌握能夠啟動(dòng)設(shè)備,將推理放在邊緣上或設(shè)備中的組件和框架知識(shí)。現(xiàn)在,制定路線圖成為了必要條件,它將本地AI(人工智能)處理和價(jià)值創(chuàng)造考慮到其中。下列設(shè)備將受益于新架構(gòu)結(jié)構(gòu)的開(kāi)發(fā),并成為設(shè)備層面的推理備選項(xiàng):
● 支持虛擬個(gè)人助理的揚(yáng)聲器(VPA-enabled speakers);
● 家庭網(wǎng)關(guān)(home gateways);
● 智能手機(jī);
● 平板電腦/個(gè)人電腦;
● 家庭傳感器(home sensors)。
在持續(xù)完善機(jī)器學(xué)習(xí)模型和訓(xùn)練過(guò)程中,各種個(gè)人設(shè)備(如:移動(dòng)設(shè)備、汽車(chē)和物聯(lián)網(wǎng))發(fā)揮著不可或缺的作用。
在本文中,我們著重闡了個(gè)人設(shè)備在優(yōu)化深度學(xué)習(xí)架構(gòu)中發(fā)揮的關(guān)鍵作用。
領(lǐng)先的AI框架組合已經(jīng)成形,并正在支持AI組件的無(wú)縫集成。這些框架包括:
● TensorFlow/TensorFlow Lite:TensorFlow是Google的開(kāi)源工具和軟件庫(kù),旨在加速機(jī)器學(xué)習(xí)應(yīng)用的開(kāi)發(fā)過(guò)程。2017年5月,TensorFlow Lite在Google I/O上推出。
● Caffe:Caffe是加州大學(xué)伯克利分校開(kāi)發(fā)的獨(dú)立框架。Caffe也是一種開(kāi)源框架,由全球貢獻(xiàn)者網(wǎng)絡(luò)提供支持。
● MXNet:Nvidia和Amazon是MXNet背后的推動(dòng)力。Amazon Web Services(AWS)的客戶(hù)對(duì)該開(kāi)源框架推崇有加。
2 運(yùn)行中的邊緣AI
如今,技術(shù)供應(yīng)商,特別是在智能家居領(lǐng)域的供應(yīng)商都在面向邊緣AI的未來(lái)格局設(shè)計(jì)相關(guān)產(chǎn)品,而基于機(jī)器學(xué)習(xí)的智能數(shù)據(jù)分析就是不錯(cuò)的開(kāi)端。此類(lèi)典型產(chǎn)品包括:
● 聯(lián)網(wǎng)家庭中樞和Wi-Fi接入點(diǎn)的制造商Securifi已經(jīng)將其機(jī)器學(xué)習(xí)功能應(yīng)用于高端Almond路由器系列,“學(xué)習(xí)”聯(lián)網(wǎng)家庭設(shè)備的典型行為和流量模式;
● Speechmatics正在開(kāi)發(fā)最終可以完全在設(shè)備上運(yùn)行的自然語(yǔ)言處理技術(shù);
● Mojo Networks提供基于AI的工具以檢測(cè)Wi-Fi或有線網(wǎng)絡(luò)問(wèn)題。
3 AI解決方案的開(kāi)發(fā)需要個(gè)人設(shè)備供應(yīng)商考慮兩個(gè)發(fā)展階段
除了確定AI解決方案的使用目的,在評(píng)估AI解決方案的部署情況時(shí),技術(shù)產(chǎn)品管理領(lǐng)導(dǎo)者必須考慮兩個(gè)關(guān)鍵的開(kāi)發(fā)階段,具體如下。
3.1 開(kāi)發(fā)和訓(xùn)練AI模型/神經(jīng)網(wǎng)絡(luò)
許多基于AI的項(xiàng)目利用基于數(shù)據(jù)中心的資源,開(kāi)發(fā)和訓(xùn)練用戶(hù)與其個(gè)人設(shè)備互動(dòng)的模型和神經(jīng)網(wǎng)絡(luò),從而從AI解決方案中獲益。利用數(shù)據(jù)中心資源的原因在于神經(jīng)網(wǎng)絡(luò)的初始模型必須經(jīng)過(guò)訓(xùn)練和“提升”,才能承擔(dān)預(yù)期的特定任務(wù),包括語(yǔ)音識(shí)別/響應(yīng)、語(yǔ)音翻譯或圖像識(shí)別。這通常要求模型能夠訪問(wèn)大量的“已知”數(shù)據(jù)和運(yùn)行模型的連續(xù)迭代,來(lái)確保提供正確結(jié)果。訓(xùn)練神經(jīng)網(wǎng)絡(luò)需要高性能的服務(wù)器驅(qū)動(dòng)系統(tǒng),該系統(tǒng)能夠?qū)崿F(xiàn)極高的數(shù)據(jù)吞吐量,以保證模型的多次迭代在可控時(shí)間段內(nèi)運(yùn)行。這些系統(tǒng)通?;诟咝阅躼86微處理器,并輔以一系列圖形處理器(GPU),來(lái)加速神經(jīng)網(wǎng)絡(luò)算法的高度并行元素。
在很大程度上,經(jīng)過(guò)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)的可靠性取決于訓(xùn)練網(wǎng)絡(luò)的已知優(yōu)良數(shù)據(jù)。這將要求設(shè)備供應(yīng)商的技術(shù)產(chǎn)品管理領(lǐng)導(dǎo)者評(píng)估目前哪些數(shù)據(jù)可用,或能夠訪問(wèn)哪些數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò);在可用數(shù)據(jù)不足的情況下,可以授權(quán)第三方數(shù)據(jù)集,或獲得預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的訪問(wèn)權(quán)限。使用預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)可以最大限度地減少對(duì)高性能服務(wù)器基礎(chǔ)架構(gòu)的投資,而在訓(xùn)練階段處理大型數(shù)據(jù)集離不開(kāi)這些基礎(chǔ)架構(gòu)。
在開(kāi)發(fā)和訓(xùn)練模型或神經(jīng)網(wǎng)絡(luò)之后,開(kāi)發(fā)人員通常會(huì)優(yōu)化模型,以便在基于“未知”數(shù)據(jù)推斷新結(jié)果,即在供客戶(hù)使用之時(shí),減少費(fèi)用和等待時(shí)間。
3.2 確定如何有效地為客戶(hù)部署AI解決方案
用于部署AI解決方案,根據(jù)未知數(shù)據(jù)推斷結(jié)果的選擇有多種:
(1)云端部署
對(duì)于許多開(kāi)發(fā)人員而言,這將是很簡(jiǎn)單的部署方案。開(kāi)發(fā)人員能夠利用與開(kāi)發(fā)神經(jīng)網(wǎng)絡(luò)相同的系統(tǒng)和技術(shù),這些系統(tǒng)已經(jīng)成為許多云服務(wù)中的“標(biāo)準(zhǔn)”產(chǎn)品。
這種方法面臨的挑戰(zhàn)是大量原始數(shù)據(jù)必須傳遞到云端,以便神經(jīng)網(wǎng)絡(luò)做出響應(yīng)。這需要一個(gè)連續(xù)的高帶寬通信連接到云端,使用具有有線互聯(lián)網(wǎng)連接的設(shè)備,這一切將成為可能(例如智能家居設(shè)備和VPA)。然而,當(dāng)無(wú)法保證云端連接或帶寬有限時(shí),此方法并不適用(例如蜂窩連接)。
另一個(gè)必須考慮的因素是云服務(wù)處理輸入數(shù)據(jù),以及在合理時(shí)間內(nèi)做出響應(yīng)的能力,這就是所謂的延遲。人們對(duì)于在用戶(hù)心生不滿、轉(zhuǎn)而采用其它方法之前的合理系統(tǒng)響應(yīng)時(shí)間內(nèi)已開(kāi)展了諸多研究。而且隨著AI系統(tǒng)被用于任務(wù)關(guān)鍵型/生命關(guān)鍵型決策,延遲將越來(lái)越重要(例如自主駕駛系統(tǒng))。
在很多情況下,應(yīng)用程序延遲將是數(shù)據(jù)傳輸時(shí)間與神經(jīng)網(wǎng)絡(luò)原始執(zhí)行時(shí)間共同的結(jié)果。在任何時(shí)候,這兩種情況都會(huì)受到用戶(hù)數(shù)量的影響。在高峰期,網(wǎng)絡(luò)帶寬或云計(jì)算能力可能會(huì)限制性能。
(2)個(gè)人設(shè)備
通過(guò)訓(xùn)練神經(jīng)網(wǎng)絡(luò)和優(yōu)化推理模型,運(yùn)行模型所需的處理資源一般遠(yuǎn)遠(yuǎn)少于訓(xùn)練階段所需的資源。這能夠使模型在更簡(jiǎn)單的設(shè)備上運(yùn)行,如:FPGA、專(zhuān)用神經(jīng)網(wǎng)絡(luò)芯片,甚至今天許多個(gè)人設(shè)備中使用的Arm處理器內(nèi)核。
在個(gè)人設(shè)備中部署神經(jīng)網(wǎng)絡(luò)模型可以幫助開(kāi)發(fā)人員解決依賴(lài)云服務(wù)造成的延遲和連接性挑戰(zhàn)。
然而,將神經(jīng)網(wǎng)絡(luò)模型遷至設(shè)備本身也存在挑戰(zhàn)。首先,個(gè)人設(shè)備必須有足夠的資源運(yùn)行神經(jīng)網(wǎng)絡(luò)模型和數(shù)據(jù)存儲(chǔ),保存參考數(shù)據(jù),使其能夠根據(jù)新的未知輸入推斷答案。
個(gè)人設(shè)備有各種設(shè)計(jì)限制。這些限制可能包括外形規(guī)格、電池壽命、功能性或大批量可制造性。因此,許多設(shè)備都采用定制AP(應(yīng)用處理器)設(shè)計(jì),這些AP將設(shè)備的大部分功能集成到單個(gè)芯片上。定制AP的典型示例包括蘋(píng)果公司在其智能手機(jī)和平板電腦中使用的A系列處理器,以及用于智能手機(jī)的高通Snapdragon AP。專(zhuān)用微控制器也常用于外形尺寸較大的個(gè)人設(shè)備。所有這些半導(dǎo)體器件都旨在平衡性能要求與延長(zhǎng)的電池壽命,即最低的設(shè)備功耗。
許多開(kāi)發(fā)AP的半導(dǎo)體供應(yīng)商正在評(píng)估能夠運(yùn)行神經(jīng)網(wǎng)絡(luò)的額外功能模塊。其中一些模塊專(zhuān)用于特定的神經(jīng)網(wǎng)絡(luò)功能,例如圖像識(shí)別。其他模塊則提供更多的靈活性,以便開(kāi)發(fā)人員根據(jù)自己的需求優(yōu)化神經(jīng)網(wǎng)絡(luò)。
現(xiàn)在,許多IP公司提供可集成到AP設(shè)計(jì)中的數(shù)字信號(hào)處理器(DSP)、GPU和FPGA IP模塊——所有這些都可以提供運(yùn)行神經(jīng)網(wǎng)絡(luò)模型所需的并行性。
此外,一些公司正在開(kāi)發(fā)專(zhuān)用的AI處理器。但大部分都還沒(méi)有上市,不過(guò)在此期間,這些公司還提出了將AI功能添加到個(gè)人設(shè)備上的另一個(gè)選項(xiàng)。但是,由于這些AI處理器通?;趯?zhuān)有的處理器架構(gòu),提供完全集成的軟件堆棧可能具有挑戰(zhàn)性。因此,應(yīng)該進(jìn)行全面的評(píng)價(jià),評(píng)估收益與替代設(shè)計(jì)決策對(duì)比。
使用標(biāo)準(zhǔn)個(gè)人電腦架構(gòu)的更復(fù)雜的個(gè)人設(shè)備可以選擇使用基于周邊設(shè)備互連高速(Peripheral Component Interconnect Express)的GPU或FPGA附加卡(FPGA add-in card)執(zhí)行神經(jīng)網(wǎng)絡(luò)功能。
(3)兩者兼具
對(duì)于許多應(yīng)用而言,由于性能、功耗和外形規(guī)格因素的限制,完全在個(gè)人設(shè)備上運(yùn)行神經(jīng)網(wǎng)絡(luò)模型可能并不可行。在這種情況下,最好分離推理操作,在設(shè)備和云中的其它設(shè)備上進(jìn)行操作。
本文來(lái)源于《電子產(chǎn)品世界》2018年第3期第5頁(yè),歡迎您寫(xiě)論文時(shí)引用,并注明出處。
評(píng)論