物聯(lián)網(wǎng)的下一站是人工智能
2016年7月爆出了舉世震驚的軟銀234億英鎊收購ARM公司事件,軟銀首席執(zhí)行官孫正義就此表示,這一收購標(biāo)志著軟銀的一次“范式轉(zhuǎn)變”——投資物聯(lián)網(wǎng)。誠然,ARM作為壟斷了智能手機(jī)業(yè)的芯片設(shè)計(jì)公司,最近一兩年來正積極向物聯(lián)網(wǎng)拓展。
本文引用地址:http://butianyuan.cn/article/201608/295418.htm然而,ARM僅僅提供物聯(lián)網(wǎng)芯片的設(shè)計(jì),即便真如Gartner所預(yù)測在2020年將有260億物聯(lián)網(wǎng)設(shè)備,但這也只是物聯(lián)網(wǎng)的物理基礎(chǔ)。如何對這260億物聯(lián)設(shè)備7×24源源不斷產(chǎn)生出來的數(shù)據(jù)進(jìn)行分析、判斷和商業(yè)變現(xiàn),單靠人工則遠(yuǎn)遠(yuǎn)不能滿足這一需求,而必須依靠自動(dòng)化的算法,這就是Gartner所積極倡導(dǎo)的算法經(jīng)濟(jì)。
人工智能將成主流商業(yè)競爭策略
為什么說人工智能將成主流商業(yè)競爭策略?這是因?yàn)樵谒惴ń?jīng)濟(jì)時(shí)代,人工智能是終極算法,對終極算法的追求必將成為主流商業(yè)競爭策略。
在華盛頓大學(xué)教授Pedro Domingos的2015年新書《終極算法》中,有這樣論斷:“終極算法”就是通過機(jī)器學(xué)習(xí)的方式,自動(dòng)發(fā)現(xiàn)和創(chuàng)造其它所有算法的“主算法”。這個(gè)所謂的“主算法”是單一的、全球通用的算法,這個(gè)“主算法”對于生物界來說是人類大腦,對于以物聯(lián)網(wǎng)為基礎(chǔ)的機(jī)器世界來說就是人工智能。
在過去60年間,全球最頂尖的科學(xué)家們一直在研究如何用數(shù)學(xué)的方式來模擬人類的智能。早期可證明《數(shù)學(xué)原理》的“邏輯理論家”程序讓機(jī)器具備邏輯推理能力,中期的專家系統(tǒng)讓機(jī)器能獲得人類的知識,再到后來旨在讓機(jī)器自主學(xué)習(xí)知識的機(jī)器學(xué)習(xí)算法,科學(xué)家們對人工智能的探索一直沒有停止。
進(jìn)入到2016年,也是人工智能學(xué)科誕生60周年之際,基于深度學(xué)習(xí)的機(jī)器學(xué)習(xí)算法成為人工智能主流,而深度學(xué)習(xí)的核心就是多層深度神經(jīng)元網(wǎng)絡(luò)DNN,這也是目前主流科學(xué)家能達(dá)到的最為成熟的機(jī)器智能。
2016年7月21日,技術(shù)解決方案提供商SoftServe發(fā)布了Big Data Snapshot 研究報(bào)告,研究顯示 62% 的大中型公司希望在未來的兩年內(nèi)能將機(jī)器學(xué)習(xí)用于商業(yè)分析。這意味著商用多層深度神經(jīng)元網(wǎng)絡(luò)DNN,即將成為各大企業(yè)追逐的主流商業(yè)競爭策略。
硬件進(jìn)步推動(dòng)人工智能商用
我們正在進(jìn)入人工智能的商用時(shí)代。經(jīng)過60年的發(fā)展,基于DNN的人工智能已經(jīng)從高校和實(shí)驗(yàn)室走進(jìn)了企業(yè),并從企業(yè)擴(kuò)散向千家萬戶。谷歌今年剛發(fā)布的智能硬件Google Home、即將量產(chǎn)的阿里互聯(lián)網(wǎng)汽車、微軟人工智能助理Cortana等,都是基于DNN的規(guī)?;虡I(yè)應(yīng)用。
在更為廣泛的傳統(tǒng)企業(yè)應(yīng)用層面,一場大規(guī)模的人工智能商用化正在開始,這是基于硬件的進(jìn)步,其中一個(gè)顯著的進(jìn)步是GPU在人工智能商用中的崛起。《連線》雜志在2015年底發(fā)表了一篇名為《與Google競爭,F(xiàn)acebook開源了人工智能硬件》文章中談及GPU在人工智能商用時(shí)代的崛起?,F(xiàn)在,F(xiàn)acebook、Google、微軟、百度等大型互聯(lián)網(wǎng)公司正在轉(zhuǎn)向利用GPU完成人工智能商業(yè)應(yīng)用。
在過去,算法模型依靠CPU計(jì)算得出,但人工智能算法的獨(dú)特性在于分布式并行計(jì)算,這并非基于串行計(jì)算的CPU所擅長。實(shí)際上針對圖形圖像處理的GPU從一開始就是大規(guī)模并行計(jì)算,這也是為什么斯坦福大學(xué)的吳恩達(dá)教授會考慮采用GPU優(yōu)化人工智能算法的初衷。研究表明,12 顆 NVIDIA GPU 可以提供相當(dāng)于2,000 顆 CPU 的深度學(xué)習(xí)性能。
盡管從長期來看,開發(fā)真正的人工智能芯片依然是全球?qū)W界與企業(yè)界共同需要完成的任務(wù),但那仍需要很長時(shí)間的探索與實(shí)驗(yàn)。從當(dāng)前人工智能商業(yè)化需求來看,把GPU用于人工智能商用顯然具有極大的優(yōu)勢。這就是2016年4月,NVIDIA推出基于GPU的全球首款深度學(xué)習(xí)超級計(jì)算機(jī)DGX-1的原因。
首款GPU深度學(xué)習(xí)超級計(jì)算機(jī)
首款GPU深度學(xué)習(xí)超級計(jì)算機(jī)NVIDIA DGX-1基于 NVIDIA Tesla P100 GPU,該 GPU 采用2016年最新的 NVIDIA Pascal GPU 架構(gòu)。Pascal是第五代GPU架構(gòu),于兩年前的GPU技術(shù)大會(GTC)上公布,產(chǎn)品將于2016年上市,這就是Tesla P100 GPU。
作為新一代GPU架構(gòu),Pascal相比于前一代的Maxwell有較大的性能提升。根據(jù)NIVIDIA的數(shù)據(jù),Pascal GPU 在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的性能方面有1個(gè)數(shù)量級的提高。2015年GTC大會上,用4顆Maxwelll GPU訓(xùn)練Alexnet深度神經(jīng)網(wǎng)絡(luò)需要25小時(shí),到了2016年GTC大會上用8顆Pascal GPU則只用2小時(shí);對比英特爾雙路至強(qiáng)E5服務(wù)器訓(xùn)練Alexnet網(wǎng)絡(luò)需要150個(gè)小時(shí),而DGX-1只需要2個(gè)小時(shí)。
評論