2016AI巨頭開源IP盤點 50個最常用的深度學(xué)習(xí)庫
Data Science Central網(wǎng)站主編、有多年數(shù)據(jù)科學(xué)和商業(yè)分析模型從業(yè)經(jīng)驗的Bill Vorhies曾撰文指出,過去一年人工智能和深度學(xué)習(xí)最重要的發(fā)展不在技術(shù),而是商業(yè)模式的轉(zhuǎn)變——所有巨頭紛紛將其深度學(xué)習(xí)IP開源。 毋庸置疑,“開源浪潮”是2016年人工智能領(lǐng)域不可忽視的一大趨勢,而其中最受歡迎的項目則是谷歌的深度學(xué)習(xí)平臺TensorFlow。下文就從TensorFlow說起,盤點2016年AI開源項目,最后統(tǒng)計了Github最常用深度學(xué)習(xí)開源項目Top 50。
本文引用地址:http://butianyuan.cn/article/201612/342174.htm
谷歌開源:圍繞TensorFlow打造深度學(xué)習(xí)生態(tài)圈
1.Google第二代深度學(xué)習(xí)引擎TensorFlow開源
2015年11月,谷歌開源深度學(xué)習(xí)平臺TensorFlow。2016年4月,谷歌推出了分布式TensorFlow?,F(xiàn)在,TensorFlow已經(jīng)成為業(yè)內(nèi)最受歡迎的深度學(xué)習(xí)平臺之一。
2.谷歌開源全球最精準語言解析器SnytaxNet
2016年5月13日,Google Research宣布,世界準確度最高的自然語言解析器SyntaxNet開源。谷歌開源再進一步。據(jù)介紹,谷歌在該平臺上訓(xùn)練的模型的語言理解準確率超過90%。SyntaxNet是一個在TensoFlow中運行的開源神經(jīng)網(wǎng)絡(luò)框架,提供自然語言理解系統(tǒng)基矗谷歌公開了所有用用戶自己的數(shù)據(jù)訓(xùn)練新SyntaxNet模型所需要的代碼,以及谷歌已經(jīng)訓(xùn)練好的,可用于分析英語文本的模型Paesey McParseface。
Paesey McParseface建立于強大的機器學(xué)習(xí)算法,可以學(xué)會分析句子的語言結(jié)構(gòu),能解釋特定句子中每一個詞的功能。此類模型中,Paesey McParseface是世界上最精確的,谷歌希望它能幫助對自動提取信息、翻譯和其他自然語言理解(NLU)中的應(yīng)用感興趣的研究者和開發(fā)者。
3.谷歌推出Deep&Wide Learning,開源深度學(xué)習(xí)API
2016年6月29日,谷歌推出Wide & Deep Learning,并將TensorFlow API開源,歡迎開發(fā)者使用這款最新的工具。同時開源的還有對Wide & Deep Learning的實現(xiàn),作為TF.Learn應(yīng)用程序接口的一部分,讓開發(fā)者也能自己訓(xùn)練模型。
4.谷歌開源TensorFlow自動文本摘要生成模型
2016年8月25日,谷歌開源了TensorFlow中用于文本信息提取并自動生成摘要的模型,尤其擅長長文本處理,這對自動處理海量信息十分有用。自動文本摘要最典型的例子便是新聞報道的標題自動生成,為了做好摘要,機器學(xué)習(xí)模型需要能夠理解文檔、提取重要信息,這些任務(wù)對于計算機來說都是極具挑戰(zhàn)的,特別是在文檔長度增加的情況下。
5.谷歌開源圖像分類工具TF-Slim,定義TensorFlow復(fù)雜模型
2016年8月31日,谷歌宣布開源TensorFlow高級軟件包TF-Slim,能使用戶快速準確地定義復(fù)雜模型,尤其是圖像分類任務(wù)。自發(fā)布以來,TF-Slim已經(jīng)得到長足發(fā)展,無論是網(wǎng)絡(luò)層、代價函數(shù),還是評估標準,都增加了很多類型,訓(xùn)練和評估模型也有了很多便利的常規(guī)操作手段。這些手段使你在并行讀取數(shù)據(jù)或者在多臺機器上部署模型等大規(guī)模運行時,不必為細節(jié)操心。此外,谷歌研究員還制作了TF-Slim圖像模型庫,為很多廣泛使用的圖像分類模型提供了定義以及訓(xùn)練腳本,這些都是使用標準的數(shù)據(jù)庫寫就的。TF-Slim及其組成部分都已經(jīng)在谷歌內(nèi)部得到廣泛的使用,很多升級也都整合進了tf.contrib.slim。
6.谷歌開源大規(guī)模數(shù)據(jù)庫,10億+數(shù)據(jù),探索RNN極限
2016年9月13日,谷歌宣布開源大規(guī)模語言建模模型庫,這項名為“探索RNN極限”的研究今年2月發(fā)表時就引發(fā)激論,如今姍姍來遲的開源更加引人矚目。研究測試取得了極好的成績,另外開源的數(shù)據(jù)庫含有大約10億英語單詞,詞匯有80萬,大部分是新聞數(shù)據(jù)。這是典型的產(chǎn)業(yè)研究,只有在谷歌這樣的大公司才做得出來。這次開源也應(yīng)該會像作者希望的那樣,在機器翻譯、語音識別等領(lǐng)域起到推進作用。
7.谷歌開源TensorFlow圖說生成模型,可真正理解圖像
2016年9月23日,谷歌宣布開源圖說生成系統(tǒng)Show and Tell最新版在TensorFlow上的模型。該系統(tǒng)采用編碼器-解碼器神經(jīng)網(wǎng)絡(luò)架構(gòu),分類準確率達93.9%,在遇到全新的場景時能夠生成準確的新圖說。谷歌表示,這說明該系統(tǒng)能夠真正理解圖像。
8.谷歌開源超大數(shù)據(jù)庫,含800萬+視頻
2016年9月28日,谷歌在官方博客上宣布,將含有800萬個Youtube視頻URL的視頻數(shù)據(jù)庫開源,視頻總時長達到了50萬個小時。一并發(fā)布的還有從包含了4800個知識圖譜分類數(shù)據(jù)集中提取的視頻級別標簽。這一數(shù)據(jù)庫在規(guī)模和覆蓋的種類上都比現(xiàn)有的視頻數(shù)據(jù)庫有顯著提升。例如,較為著名的Sports-1M數(shù)據(jù)庫,就只由100萬個Youtube視頻和500個運動類目。谷歌官方博客上說,在視頻的數(shù)量和種類上,Youtube-8M代表的是幾乎指數(shù)級的增長。
9.谷歌發(fā)布Open Images圖片數(shù)據(jù)集,包含900萬標注圖片
2016年10月1日,繼前天發(fā)布800萬視頻數(shù)據(jù)集之后,谷歌又發(fā)布了圖片數(shù)據(jù)庫Open Images,包含了900萬標注數(shù)據(jù),標簽種類超過6000種。谷歌在官方博客中寫到,這比只擁有1000個分類的ImageNet更加貼近實際生活。對于想要從零開始訓(xùn)練計算機視覺模型的人來說,這些數(shù)據(jù)遠遠足夠了。就在12月,谷歌還開源了Open Images并行下載工具的腳本,5天速度最高超過200 M。
10.DeepMind開源AI核心平臺DeepMind Lab(附論文)
2016年12月5日,DeepMind宣布將其AI核心平臺DeepMind Lab開源。DeepMind實驗室把全部代碼上傳至Github,供研究人員和開發(fā)者進行實驗和研究。DeepMind Lab這一平臺將幾個不同的AI研究領(lǐng)域整合至一個環(huán)境下,方便研究人員測試AI智能體導(dǎo)航、記憶和3D成像等能力。值得一提的是,這些代碼也包括AlphaGO的代碼,谷歌希望以此增加AI能力的開放性,讓更多開發(fā)者參與AI研究,觀察其他開發(fā)者是否能夠挑戰(zhàn)并打破DeepMind現(xiàn)在的紀錄。
Facebook開源:貫徹理念
1.Facebook開源圍棋引擎DarkForest
6個月前,F(xiàn)acebook將其圍棋引擎DarkForest開源。現(xiàn)在訓(xùn)練代碼已經(jīng)全部發(fā)布。Github鏈接:https://github.com/facebookresearch/darkforestGo。
2.Facebook開源文本分類工具fastText,不用深度學(xué)習(xí)也可以又快又準
2016年8月19日,F(xiàn)acebook AI實驗室(FAIR)宣布開源文本分析工具fastText。fastText既可以用于文本分類,又能用于學(xué)習(xí)詞匯向量表征。在文本分類的準確率上與一些常用的深度學(xué)習(xí)工具不相上下,但是在時間上卻快很多——模型訓(xùn)練時間從幾天減少到幾秒。除了文本分類,fastText也能被用于學(xué)習(xí)詞語的向量表征,F(xiàn)acebook稱fastText比常用的Word2vec等最先進的詞態(tài)表征工具表現(xiàn)都要好得多。
3.Facebook開源計算機視覺系統(tǒng)deepmask,從像素水平理解圖像(附論文及代碼)
2016年8月26日,F(xiàn)acebook宣布開源計算機視覺系統(tǒng)deepmask,稱該系統(tǒng)能“從像素水平理解物體”,F(xiàn)acebook希望開源能加速計算機視覺的發(fā)展。不過,F(xiàn)acebook并沒有在自家產(chǎn)品中使用這些工具,像這樣落實到具體應(yīng)用前就開源,跟通常所說的“開源”有些不同。對此,F(xiàn)acebook人工智能團隊FAIR的負責(zé)人Yann LeCun 曾表示,正是因為FAIR 做基礎(chǔ)的、不受制于公司短期效益的研究,才能真正推進人工智能技術(shù)發(fā)展。
4.Facebook 開源AI 訓(xùn)練和測試環(huán)境CommAI-env
2016年9月27日,F(xiàn)acebook 宣布開放AI 訓(xùn)練和測試環(huán)境CommAI-env,可以用任何編程語言設(shè)置智能體。據(jù)介紹,CommAI-env 這個平臺用于訓(xùn)練和評估AI 系統(tǒng),尤其是注重溝通和學(xué)習(xí)的AI 系統(tǒng)。與用強化學(xué)習(xí)從玩游戲到下圍棋都能做的OpenAI Gym 不同,F(xiàn)acebook 的CommAI-env 側(cè)重基于溝通的訓(xùn)練和測試,這也是為了鼓勵開發(fā)人員更好地打造能夠溝通和學(xué)習(xí)的人工智能,呼應(yīng)該公司的十年規(guī)劃。Facebook 還表示,CommAI-env 會持續(xù)更新,并在成熟后舉辦競賽推進AI 的開發(fā)。
在AI 測試環(huán)境方面,F(xiàn)acebook 還開源了CommNet,這是一個讓基于神經(jīng)網(wǎng)絡(luò)的代理更好交互、實現(xiàn)合作而研發(fā)的模型,與CommAI-env 配套。12月,F(xiàn)acebook 還開源了 TorchCraft,在深度學(xué)習(xí)環(huán)境 Torch 與星際爭霸之間搭起了橋梁,方便研究人員使用控制器,編寫能夠玩星際爭霸游戲的智能代理。
5.Facebook 賈揚清發(fā)文介紹 Caffe2go,手機就能運行神經(jīng)網(wǎng)絡(luò)
2016年11月8日,Caffe作者、Facebook 研究員賈揚清在官方網(wǎng)站上發(fā)文介紹了新的機器學(xué)習(xí)框架 Caffe2go,并表示在接下來的幾個月將其部分開源。Caffe2go 規(guī)模更小,訓(xùn)練速度更快,對計算性能要求較低,在手機上就行運行,已經(jīng)成為 Facebook 機器學(xué)習(xí)的核心技術(shù)。
OpenAI
1.OpenAI 推出代理訓(xùn)練環(huán)境 OpenAI Gym
創(chuàng)立于2015年底的非盈利機構(gòu) OpenAI 的成立打破了谷歌、Facebook 等巨頭霸占 AI 領(lǐng)域的格局,但其創(chuàng)始人、特斯拉CEO馬斯克多次發(fā)表人工智能威脅論。馬斯克創(chuàng)立 OpenAI 目的何在?2016年5月4日,OpenAI 發(fā)布了人工智能研究工具集 OpenAI Gym,用于研發(fā)和比較強化學(xué)習(xí)算法,分析 OpenAI Gym 或可找出馬斯克的真正動機。
2.另一種開源:OpenAI 介紹深度學(xué)習(xí)基礎(chǔ)框架
2016年8月30日,OpenAI 研究員在博客發(fā)文,結(jié)合實例介紹了 OpenAI 進行深度學(xué)習(xí)研究時采用的基礎(chǔ)設(shè)施配置,并且提供了相關(guān)開源代碼。文章激起了很多反響,相對于軟硬件開源,OpenAI 從另一個側(cè)面,對深度學(xué)習(xí)模型的實際部署提供了幫助。
3.OpenAI 重磅發(fā)布 AGI 測試訓(xùn)練平臺 Universe
2016年12月4日,在今年 NIPS 大會召開的前一晚,OpenAI 發(fā)布了 Universe,用于訓(xùn)練解決通用問題 AI 的基礎(chǔ)架構(gòu)。據(jù)悉,這是一個能在幾乎所有環(huán)境中衡量和訓(xùn)練 AI 通用智能水平的開源平臺,目標是讓智能體能像人一樣使用計算機。目前,Universe 已經(jīng)有1000種訓(xùn)練環(huán)境,由微軟、英偉達等公司參與建設(shè)。有了 Universe,任何程序都能被接入到 OpenAI Gym 的環(huán)境中。很快,OpenAI 還推出了 Mini World of Bits(MiniWoB),這個與 OpenAI Universe 配套的環(huán)境基準可以測試代理與常見網(wǎng)頁瀏覽器元素的交互能力,比如按鈕、文本框、滑塊。
微軟開源:CNTK 升級版
根據(jù) Github 2016年度的《Octoverse 觀察報告》,微軟不僅是擁有開源項目最多的公司,也是貢獻人數(shù)最多的公司。
在人工智能方面,微軟的開源項目有很多,包括 CNTK計算網(wǎng)絡(luò)工具包、DMTK分布式機器學(xué)習(xí)工具包,Send2vec語義相似映射器, 以及 CodaLab 研究平臺(基于Web的開源平臺,旨在通過其在線社區(qū)幫助解決數(shù)據(jù)導(dǎo)向的許多常見問題,從而促進機器學(xué)習(xí)和高性能計算的研究領(lǐng)域的發(fā)展)。
2016年10月27日,微軟開源深度學(xué)習(xí)認知工具包 CNTK 升級版,其中最矚目的功能是增加了 Python 綁定,支持增強學(xué)習(xí)。新版的 CNTK 性能大幅提升,尤其是在多臺機器上處理較大數(shù)據(jù)集的情況下能高速運行,這種類型的大規(guī)模部署對于多GPU上的深度學(xué)習(xí)是不可或缺的,也是開發(fā)消費產(chǎn)品和專業(yè)產(chǎn)品的必需。
微軟研究人員表示,在多服務(wù)器間運行的能力是一大進步。CNTK 升級版還包含了一些算法,用于將大規(guī)模數(shù)據(jù)處理的計算消耗降到最低。
百度
1.百度開源深度學(xué)習(xí)代碼 Warp-CTC 詳解
2016年1月15日,百度公布了代碼 Warp-CTC,能夠讓 AI 軟件運行得更高效。說 Warp-CTC 知道的人可能還少,百度語音識別系統(tǒng) Deep Speech 2就是用它搭建的。百度位于硅谷的 AI 實驗室主管 Adam Coates 在接受 Re-Work 采訪時表示,他們在構(gòu)建深度語音端對端系統(tǒng)的過程中發(fā)明了Warp-CTC 方法,進而使用 CTC 提高模型的可伸縮性?!坝捎跊]有相似的工具,我們決定將其分享給人們。它是一款很實用的工具,可以用到現(xiàn)有的AI框架中?,F(xiàn)在有很多深度學(xué)習(xí)的開源軟件,但是之前用于訓(xùn)練序列數(shù)據(jù)的端對端網(wǎng)絡(luò)一直很慢。我們在Warp-CTC上的投入是對“我們堅信深度學(xué)習(xí)與高性能計算技術(shù)(HPC)的結(jié)合會有巨大潛力”的一種證明?!?/p>
2.百度開源分布式深度學(xué)習(xí)平臺,挑戰(zhàn) TensorFlow(附教程)
2016年8月31日,百度宣布開源深度學(xué)習(xí)平臺 PaddlePaddle。實際上,百度深度學(xué)習(xí)實驗室在幾年前就投入 PaddlePaddle 的開發(fā),業(yè)內(nèi)對這個云端托管的分布式深度學(xué)習(xí)平臺贊譽有加:代碼簡潔、設(shè)計干凈,沒有太多抽象……PaddlePaddle 對于序列輸入、稀疏輸入和大規(guī)模數(shù)據(jù)的模型訓(xùn)練有著良好的支持,支持GPU運算,支持數(shù)據(jù)并行和模型并行,僅需少量代碼就能訓(xùn)練深度學(xué)習(xí)模型,大大降低了用戶使用深度學(xué)習(xí)技術(shù)的成本。
3.百度公開硬件基準 DeepBench,推動深度學(xué)習(xí)專用芯片研發(fā)競爭
2016年9月,百度發(fā)表論文,開源 DeepBench 基準測試,AI研究者和芯片制造商可以用它測試不同的芯片運行軟件時的性能,尤其是哪款硬件加速深度學(xué)習(xí)性能最好。目前 DeepBench 只能測試深度學(xué)習(xí)的訓(xùn)練模型,能提供在三種 Nvidia GPU和一種 Intel Xeon Phi 處理器的基準化測試結(jié)果,未來還可能測試用于圖像和語音識別之類任務(wù)的“推理”模型。百度希望 DeepBench 能促進特定任務(wù)深度學(xué)習(xí)加速器的研發(fā),“GPU顯然不是終點,我們希望這能鼓勵競爭”。
GitHub 最受歡迎的深度學(xué)習(xí)項目
名稱星數(shù)簡介
TensorFlow
29622
使用數(shù)據(jù)流圖計算可擴展機器學(xué)習(xí)問題
Caffe
11799
一個高效的開源深度學(xué)習(xí)框架
Neural Style
10148
由Torch實現(xiàn)的神經(jīng)網(wǎng)絡(luò)算法
Deep Dream
9042
一款圖像識別工具
Keras
7502
一款由Python實現(xiàn)的深度學(xué)習(xí)庫,包括卷積神經(jīng)網(wǎng)絡(luò)、遞歸神經(jīng)網(wǎng)絡(luò)等。運行在Theano和TensorFlow之上
Roc AlphaGo
7170
由學(xué)生主導(dǎo)的一個獨立項目,重新實現(xiàn)了 DeepMind在2016發(fā)表于Nature論文"Mastering the game of Go with deep neural networks and tree search(用深度神經(jīng)網(wǎng)絡(luò)和樹搜索學(xué)習(xí)圍棋)" (Nature 529, 484-489, 28 Jan 2016)
TensorFlow Models
6671
基于TensorFlow開發(fā)的模型
Neural Doodle
6275
運用深度神經(jīng)網(wǎng)絡(luò)將涂鴉變?yōu)閮?yōu)雅的藝術(shù)品,從照片生成無縫紋理,轉(zhuǎn)變圖片風(fēng)格,進行基于實例的提升,等等。(語義風(fēng)格傳遞的實現(xiàn))
CNTK
5957
微軟的計算網(wǎng)絡(luò)工具(Computational Network Toolkit,CNTK)
TensorFlow Examples
5872
面向初學(xué)者的TensorFlow教程和代碼示例
ConvNet JS
5231
基于Java的深度學(xué)習(xí)庫。在瀏覽器中訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型(或者普通模型)
Torch
5133
Torch7,深度學(xué)習(xí)庫
OpenFace
4855
基于深度學(xué)習(xí)網(wǎng)絡(luò)的面部識別
MXNet
4685
輕巧、便攜、靈活的分布式/移動深度學(xué)習(xí)框架,支持Python, R, Julia, Scala, Go, Java等等語言
Nupic
4364
智能計算的Numenta平臺(Numenta Platform for Intelligent Computing,Nupic):一個腦啟發(fā)式的計算智能和機器智能平臺,基于皮層學(xué)習(xí)算法的生物精確神經(jīng)網(wǎng)絡(luò)模型
Theano
4286
一個 Python 庫,用來定義、優(yōu)化和模擬數(shù)學(xué)表達式計算,用于高效解決多維數(shù)組的計算問題
Leaf
4281
面向黑客的開源機器智能框架
Char RNN
3820
基于Torch開發(fā)的多層遞歸神經(jīng)網(wǎng)絡(luò)的字符級別語言模型
Neural Talk
3694
一個Python+numpy項目,用多模式遞歸神經(jīng)網(wǎng)絡(luò)描述圖像
deeplearning4j
3673
基于Hadoop和Spark的Java, Scala & Clojure深度學(xué)習(xí)工具
TFLearn
3368
深度學(xué)習(xí)庫,包括高層次的TensorFlow接口
TensorFlow Playground
3352
神經(jīng)網(wǎng)絡(luò)模型示例
OpenAI Gym
3020
一種用于開發(fā)和比較強化學(xué)習(xí)算法的工具包
Magenta
2914
用機器智能生成音樂和藝術(shù)
Colornet
2798
用神經(jīng)網(wǎng)絡(luò)模型給灰度圖上色
Synaptic
2666
基于node.js和瀏覽器的免架構(gòu)神經(jīng)網(wǎng)絡(luò)庫
Neural Talk 2
2550
Torch開發(fā)的圖像簡介生成GPU運行代碼
Image Analogies
2540
使用神經(jīng)匹配和融合生成相似圖形
TensorFlow Tutorials
2413
Tensorflow的基礎(chǔ)原理到應(yīng)用
Lasagne
2355
基于Theano訓(xùn)練和構(gòu)建神經(jīng)網(wǎng)絡(luò)的輕型函數(shù)庫
PyLearn2
2153
基于Theano的機器學(xué)習(xí)庫
LISA-lab Deep Learning Tutorials
2134
深度學(xué)習(xí)教程筆記和代碼
Neon
2121
Nervana 開發(fā)的一款快速、可擴展、易使用的Python深度學(xué)習(xí)框架
Matlab Deep Learning Toolbox
2032
Matlab/Octave的深度學(xué)習(xí)工具箱。包括深度信念網(wǎng)絡(luò)、自動編碼機、卷積神經(jīng)網(wǎng)絡(luò)、卷積自動編碼機和vanilla神經(jīng)網(wǎng)絡(luò)等。每種方法都有入門示例
Deep Learning Flappy Bird
1721
使用深度強化學(xué)習(xí)破解Flappy Bird游戲
Chainer
1573
一款靈活的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)框架
Neural Story Teller
1514
一種根據(jù)圖片生成故事的遞歸神經(jīng)網(wǎng)絡(luò)模型
DIGITS
1353
深度學(xué)習(xí)GPU訓(xùn)練系統(tǒng)
Deep Jazz
1229
基于Keras和Theano生成jazz的深度學(xué)習(xí)模型
Brainstorm
1143
快速、靈活、有趣的神經(jīng)網(wǎng)絡(luò)
Darknet
937
C語言版本的開源神經(jīng)網(wǎng)絡(luò)
Theano Tutorials
904
基于Theano的機器學(xué)習(xí)入門教程,從線性回歸到卷積神經(jīng)網(wǎng)絡(luò)
RNN Music Composition
904
一款生成古典音樂的遞歸神經(jīng)網(wǎng)絡(luò)工具
Blocks
866
一種用于構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的Theano框架
TDB
860
TensorFlow的交互式、節(jié)點調(diào)試和可視化的工具
Scikit Neural Net
849
深度神經(jīng)網(wǎng)絡(luò)入門工具,類似scikit-learn的分類器和回歸模型。
Veles
760
分布式機器學(xué)習(xí)平臺(Python, CUDA, OpenCL)
Deep Detect
759
基于C++11的深度學(xué)習(xí)接口和服務(wù)器,與Python綁定并支持Caffe
TensorFlow DeepQ
759
基于Google Tensorflow的deep Q learning演示
Caffe on Spark
724
基于Spark的Caffe
Nolearn
702
神經(jīng)網(wǎng)絡(luò)庫的抽象,著名的Lasagne
DCGAN TensorFlow
568
基于tensorflow實現(xiàn)的深度卷積生成對抗網(wǎng)絡(luò)
MatConvNet
479
MATLAB卷積神經(jīng)網(wǎng)絡(luò)工具箱,用于計算機視覺應(yīng)用
DeepCL
413
用于訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)模型的OpenCL庫
Visual Search Server
304
用Tensorflow Inception 模型和近似最近鄰的視覺搜索
評論