盤點(diǎn)2018年計(jì)算機(jī)視覺領(lǐng)域技術(shù)突破
因而,Video-to-Video Synthesis也被看作是在過去幾年中,視頻領(lǐng)域的一次重大突破,畢竟從靜態(tài)框架轉(zhuǎn)換為動(dòng)態(tài)框架的難度是很大的,但機(jī)器訓(xùn)練卻在盡量模擬預(yù)測視頻將會發(fā)生的情景,通過給定的輸入視頻學(xué)習(xí)映射函數(shù),產(chǎn)生仿真度極高的視頻內(nèi)容。
本文引用地址:http://butianyuan.cn/article/201901/396390.htmFast.ai18分鐘訓(xùn)練ImageNet
在普遍認(rèn)知還停留在需要大量計(jì)算資源來執(zhí)行適當(dāng)?shù)纳疃葘W(xué)習(xí)任務(wù)時(shí),F(xiàn)ast.ai通過使用16個(gè)公共AWS云實(shí)例,每個(gè)配備8個(gè)NVIDIA V100 GPU,運(yùn)行fast.ai和PyTorch,用18分鐘在ImageNet上將圖像分類模型訓(xùn)練到了93%的準(zhǔn)確率,刷新了一個(gè)新的速度記錄。
這是一個(gè)令人驚喜的結(jié)果,尤其在公共基礎(chǔ)設(shè)施上訓(xùn)練ImageNet能達(dá)到這種準(zhǔn)確性,并且比其專有TPU Pod群集上的谷歌DAWNBench記錄快40%,運(yùn)行成本僅約為40美元。這意味著一個(gè)關(guān)鍵的里程碑出現(xiàn)了,幾乎所有人都可以在一個(gè)相當(dāng)大的數(shù)據(jù)集上訓(xùn)練大規(guī)模神經(jīng)網(wǎng)絡(luò)。
除了這些重要的節(jié)點(diǎn)之外,2018年的計(jì)算機(jī)視覺技術(shù)也部署更多方面,不論是亞馬遜發(fā)布Rekognition將計(jì)算機(jī)視覺置于開發(fā)人員、微軟為OneDrive和SharePoint推出了新的AI服務(wù)、Google相冊讓我們的記憶變得可搜索、還是每個(gè)場景下都正在逐漸普及的AI人臉識別等等,計(jì)算機(jī)視覺正在逐步滲透到我們生活的每個(gè)部分。
最后,最值得注意的是,計(jì)算機(jī)視覺的市場增長幾乎與其技術(shù)能力的增長是一樣快的,預(yù)計(jì)到 2025年,計(jì)算機(jī)視覺領(lǐng)域會帶來超過262億美元的收益,因而在人工智能的未來里,計(jì)算機(jī)視覺一定是最有力的表現(xiàn)形式,并將隨處可見。
評論