Google大腦工程師詳解:深度學(xué)習(xí)技術(shù)能帶來哪些新產(chǎn)品?
那么,“深度學(xué)習(xí)的最新進展能帶來哪些產(chǎn)品上的突破?”
Quora上就有這樣一個問題,而Google Brain的研究工程師Eric Jiang也給出一個最高贊的答案。下面就是Jiang的回答,大周末的,讓我們一起來漲漲姿勢:
Deep Learning是指包含以下特征的一類機器學(xué)習(xí)技術(shù):
· 大規(guī)模神經(jīng)網(wǎng)絡(luò)(包含百萬級的自由變量);
· 高性能計算(上千個并行處理器);
· 大數(shù)據(jù)(例如百萬級的彩色圖像、棋譜等)
目前,深度學(xué)習(xí)技術(shù)已經(jīng)在眾多領(lǐng)域達到了先進水平,例如視覺、聲音、機器人、自然語言處理。深度學(xué)習(xí)最近的進展吸收了統(tǒng)計學(xué)習(xí)[1, 2]、增強學(xué)習(xí)和數(shù)值優(yōu)化的思想。關(guān)于這個領(lǐng)域的概況,見參考文獻[9, 10]。
我下面列出一些借助目前的深度學(xué)習(xí)技術(shù)才可能實現(xiàn)的產(chǎn)品類別,排名不分先后:
定制化數(shù)據(jù)壓縮、壓縮感知、數(shù)據(jù)驅(qū)動的傳感器校準(zhǔn)、離線AI、人機交互、游戲、藝術(shù)助手、非結(jié)構(gòu)化數(shù)據(jù)挖掘、語音合成。
定制化數(shù)據(jù)壓縮
假設(shè)你在設(shè)計一個視頻直播應(yīng)用,希望用一套有損編碼方案來減少需要向互聯(lián)網(wǎng)上傳的包。
你可以用H.264這樣現(xiàn)成的編碼解碼器,但是H.264并不是最理想的解決方案,因為它是為通用視頻校準(zhǔn)的,也就是從貓咪視頻到故事片都能用。改用為FaceTime視頻而校準(zhǔn)的編解碼器可能會更好,因為當(dāng)我們利用了“屏幕中間總是有張臉”這一點,能省下更多流量。
然而,設(shè)計一個這樣的編碼方案是有難度的。我們要怎樣說明臉在什么位置,視頻對象有多少根眉毛、眼睛是什么顏色、下巴是什么形狀等等特征?如果頭發(fā)擋住了眉毛怎么辦?圖像中沒有臉或者有多個人的臉怎么辦?
這時候,深度學(xué)習(xí)就派上用場了。自動編碼器是一種神經(jīng)網(wǎng)絡(luò),只是它的輸出和輸入數(shù)據(jù)一樣而已。學(xué)習(xí)這個“恒等映射(identity mapping)”之所以重要,是因為這個自動編碼器的隱藏層神經(jīng)網(wǎng)絡(luò)比輸入層要小。這個“信息瓶頸”迫使自動編碼器在隱藏層中學(xué)習(xí)一種數(shù)據(jù)的壓縮表示(compressed representation),這種壓縮表示還將被神經(jīng)網(wǎng)絡(luò)的其它層解碼回原始形態(tài)。
通過端到端的訓(xùn)練,自動編碼器等深度學(xué)習(xí)技術(shù)可以適應(yīng)你數(shù)據(jù)的細(xì)微差別。不同于主成分分析法(PCA),編解碼步驟不受(線性)仿射變換的限制。PCA學(xué)習(xí)的是一種“編碼線性變換”,自動編碼器學(xué)習(xí)的是“編碼程序”。
這讓神經(jīng)網(wǎng)絡(luò)更加強大,能用于更復(fù)雜的、特定領(lǐng)域的壓縮,從在Facebook上存大量自拍到加載速度更快的YouTube視頻,科學(xué)數(shù)據(jù)壓縮再到降低你個人iTunes資料庫所占的空間,都能用上這種技術(shù)。設(shè)想一下,假如你的iTunes資料庫為了讓你的音樂少占一點空間,它可能專門學(xué)習(xí)一種“鄉(xiāng)村歌曲編碼器”哦!
壓縮感知
壓縮感知和有損壓縮的解碼方面緊密相關(guān)。很多有趣的信號都有特定的結(jié)構(gòu),也就是說,信號的分布并不完全是任意的。這說明實際上,我們不需要為了獲取信號的完美重建而在奈奎斯特極限采樣,只要我們的解碼算法可以正確地找出它的結(jié)構(gòu)。
深度學(xué)習(xí)適用于這個任務(wù),因為我們不需要人工標(biāo)注特征就能用神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)稀疏結(jié)構(gòu)。以下是一些產(chǎn)品應(yīng)用:
超分辨率算法(waifu2X),就是美劇CSI邁阿密里“增強”按鈕的真實版;
使用WiFi無線電波干擾可以透視墻壁另一側(cè)的人(MIT Wi-Vi);
基于不完全觀察(例如2D圖像、部分遮擋的圖像)解譯3D結(jié)構(gòu);
聲納、激光雷達信息的更精確重現(xiàn)。
數(shù)據(jù)驅(qū)動的傳感器校準(zhǔn)
好的傳感器和測量裝置通常依賴于昂貴、精密的部件。
我們以數(shù)碼相機為例。數(shù)碼相機假設(shè)鏡頭中的玻璃鏡片遵循一種精密的幾何結(jié)構(gòu),拍照時,內(nèi)置的處理器負(fù)責(zé)用光線通過透鏡的等式,來計算出最終的圖像。
如果透鏡有刮痕、彎曲、變形,就打破了相機原本的假設(shè),圖像的質(zhì)量也不會好。
再舉一個例子。為了便于計算,我們目前用在MRI和心電圖中的解碼模型會假設(shè)頭蓋骨是一個正球體。這在一定程度上是可行的,但有時,檢測出的腫瘤位置會有幾毫米的誤差。
更精確的攝影和MRI成像技術(shù)應(yīng)該對幾何誤差進行補償,無論這些誤差來自潛在錯誤源還是制造缺陷。
幸運的是,深度學(xué)習(xí)給了我們借助數(shù)據(jù)校準(zhǔn)解碼算法的能力。
不同于“均碼”的解碼模型(例如卡爾曼濾波器),我們可以針對每個受體或者測量儀器進行調(diào)整,從而表示出更復(fù)雜的偏差。如果相機鏡頭有刮痕,我們可以訓(xùn)練解碼軟件對變化了的幾何形態(tài)進行補償。也就是說,我們不再需要以極高的精度制造和排列傳感器,也就節(jié)約了大量資金。
某些情況下,我們可以在完全去除了硬件的情況下,讓算法去進行補償。哥倫比亞大學(xué)的計算攝影學(xué)實驗室開發(fā)了一種沒有鏡片的相機,也就是軟件定義成像(software-defined imaging)
離線AI
能在不聯(lián)網(wǎng)的情況下運行AI算法,對要求低延遲(例如機器人、自動駕駛汽車)或者沒有穩(wěn)定網(wǎng)絡(luò)連接(如旅行方面)的應(yīng)用來說至關(guān)重要。
深度學(xué)習(xí)在這方面尤其合適。訓(xùn)練階段結(jié)束后,神經(jīng)網(wǎng)絡(luò)的前饋環(huán)節(jié)運行得非???,另外,把大型神經(jīng)網(wǎng)絡(luò)一直縮小到可以在智能手機上運行也很簡單,雖然準(zhǔn)確率上會有所損失。
Google在Google Translate應(yīng)用的離線拍照翻譯功能上已經(jīng)這么做了。
評論