關(guān) 閉

新聞中心

EEPW首頁 > 安全與國防 > 業(yè)界動態(tài) > GPU為何是安防走向人工智能的核心利器?

GPU為何是安防走向人工智能的核心利器?

作者: 時間:2017-03-21 來源:安防行業(yè)網(wǎng) 收藏
編者按:如果把科技產(chǎn)業(yè)劃分為三個時代:PC 時代、移動互聯(lián)網(wǎng)時代和AI 時代。目前,我們處于移動互聯(lián)網(wǎng)時代的末期和下一個時代的早期,即以深度學習、無人駕駛為主的AI 時代。

  圖形處理器(英語:GraphicsProcessingUnit,縮寫:),又稱顯示核心、視覺處理器、顯示芯片,是一種專門在個人電腦、工作站、游戲機和一些移動設備(如平板電腦、智能手機等)上圖像運算工作的微處理器。

本文引用地址:http://butianyuan.cn/article/201703/345508.htm

  用途是將計算機系統(tǒng)所需要的顯示信息進行轉(zhuǎn)換驅(qū)動,并向顯示器提供行掃描信號,控制顯示器的正確顯示,是連接顯示器和個人電腦主板的重要元件,也是“人機對話”的重要設備之一。顯卡作為電腦主機里的一個重要組成部分,承擔輸出顯示圖形的任務,對于從事專業(yè)圖形設計的人來說顯卡非常重要。

  是為了能夠更快處理圖像而誕生

  在九十年代,一批工程師意識到:在屏幕上進行多邊形圖像渲染,本質(zhì)上是個能并行處理的任務--每個像素點的色彩可以獨立計算,不需要考慮其它像素點。于是誕生,成為比CPU更高效的渲染工具。簡而言之,由于CPU在圖像渲染方面的能力不足,GPU被發(fā)明出來分擔這部分工作,此后就成了專門搞這方面的硬件。有了上千個更加簡單的核心,GPU能高效地處理讓CPU十分吃力的任務。只要有合適的代碼配合,這些核心就能處理超大規(guī)模的數(shù)學運算,實現(xiàn)逼真的游戲體驗。

  GPU作為顯示卡的“大腦”決定了該顯卡的檔次和大部分性能,同時GPU也是2D顯示卡和3D顯示卡的區(qū)別依據(jù)。2D顯示芯片在處理3D圖像與特效時主要依賴CPU的處理能力,稱為軟加速。3D顯示芯片是把三維圖像和特效處理功能集中在顯示芯片內(nèi),也就是所謂的“硬件加速”功能。顯示芯片一般是顯示卡上最大的芯片。時下市場上的顯卡大多采用NVIDIA和AMD-ATI兩家公司的圖形處理芯片。NVIDIA公司在1999年發(fā)布GeForce256圖形處理芯片時首先提出GPU的概念。從此NV顯卡的芯就用這個新名字GPU來稱呼。GPU使顯卡削減了對CPU的依賴,并實行部分原本CPU的工作,更加是在3D圖形處理時。

  GPU能將3D模型的信息轉(zhuǎn)換為2D表示,同時添加不同的紋理和陰影效果,所以GPU在硬件里也是比較特殊的存在。從3D建模到最終顯示在屏幕上,GPU渲染場景使用的是流水線操作。早些時候流水線操作是固定不能作任何改動的,整個操作由讀取三角形的頂點數(shù)據(jù)開始,接著GPU處理完后進入幀緩沖區(qū)(framebuffer),準備發(fā)送給顯示器。GPU也能對場景進行某些特定效果的處理,不過這些都是由工程師設計固定好的,能提供的選項很少。

  GPU設計之初非針對深度學習而是并行計算

  GPU關(guān)鍵性能是并行計算。這意味著可以同時處理運算,而不是一步步進行。復雜問題可被分解為更簡單的問題,然后同時進行處理。并行計算適用于HPC和超算領(lǐng)域所涉及的許多問題類型,比如氣象、宇宙模型和DNA序列。并不是只有天體物理學家和氣象學家才能充分利用并行計算的優(yōu)點。事實證明,許多企業(yè)應用能從并行計算獲得超出尋常比例的好處。這包括:數(shù)據(jù)庫查詢、密碼學領(lǐng)域的暴力搜索、對比不同獨立場景的計算機模擬、機器學習/深度學習、地理可視化

  在GPU設計之初,并非針對深度學習,而是圖形加速,在NVIDIA推出CUDA架構(gòu)之前,GPU并無太強對深度學習運算能力的支持。而如今,NVIDIA可以提供基于其GPU的從后端模型訓練到前端推理應用的全套深度學習解決方案,一般的開發(fā)人員都可以非常容易地上手使用GPU進行深度學習開發(fā),或者高性能運算。而CUDA架構(gòu)的開發(fā),耗費了NVIDIA巨大的人力物力??梢哉f,是CUDA這個中間層(computingframework)的優(yōu)化,才使得開發(fā)者真正愛上了GPU,NVIDIA勝在軟件。而CUDA還不能稱之為算法,它只是計算硬件與算法之間的橋梁。

  目前來看,NVIDIA作為計算平臺的領(lǐng)導者,但事實是,一開始并非NVIDIA選擇了,而是的研究者選擇了GPU,進而成就了NVIDIA。在2012年,Alex利用深度學習+GPU的方案,一舉贏得ImageNetLSVRC-2010圖像識別大賽,并奇跡般地將識別成功率從74%提升到85%。NVIDIA敏銳地覺察到了這一趨勢,并大力優(yōu)化基于GPU的深度學習生態(tài)系統(tǒng),并加速迭代開發(fā),三年時間將GPU性能提升了65倍,從而奠定了目前的王者之位。

  AI時代 GPU將是數(shù)據(jù)爆炸時代的核心處理模塊

  對于人工智能計算架構(gòu)來說,一般可以歸結(jié)為三類模式:CPU + GPU,CPU + FPGA,CPU + ASIC(專用集成電路)。其中,應用于圖形、圖像處理領(lǐng)域的GPU 可以并行處理大量數(shù)據(jù),非常適合深度學習的高并行、高本地化數(shù)據(jù)場景,是目前主流的人工智能計算架構(gòu)。

  如果把科技產(chǎn)業(yè)劃分為三個時代:PC 時代、移動互聯(lián)網(wǎng)時代和AI 時代。目前,我們處于移動互聯(lián)網(wǎng)時代的末期和下一個時代的早期,即以深度學習、無人駕駛為主的AI 時代。



關(guān)鍵詞: 人工智能 GPU

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉