新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 英偉達花30億美元打造AI芯片 8塊售14.9萬美元

英偉達花30億美元打造AI芯片 8塊售14.9萬美元

作者: 時間:2017-05-12 來源:網易科技 收藏

  5月11日消息,據國外媒體VentureBeat報道,CEO黃仁勛今天發(fā)布了一款針對人工智能應用的雄心勃勃的新處理器:Tesla V100。

本文引用地址:http://butianyuan.cn/article/201705/359098.htm

  該新芯片擁有210億個晶體管,性能比一年前發(fā)布的帶150億個晶體管的Pascal處理器強大得多。它是一款很大的芯片——815平方毫米,大小約為Apple Watch智能手表的表面。它擁有5120個CUDA(統(tǒng)計計算設備架構)處理核心,雙精度浮點運算性能可達每秒7.5萬億次。

  作為全球最大的圖形芯片和芯片廠商,總部位于加州圣克拉拉的在加州圣何塞舉行GPU技術大會,并發(fā)布了上述產品。

  黃仁勛稱英偉達花了30億美元打造這款芯片,基于8塊Tesla V100搭建的DGX-1也開始預售,價格為149000美元,預計在今年第三季度交付。

  在介紹該款芯片之前,黃仁勛談到了近年的發(fā)展史。他指出,深度學習神經網絡研究大約5年前開始帶來成果,那個時候研究人員開始利用圖形處理器(GPU)來處理數據,同時利用它們來快速訓練神經網絡。自那時起,深度學習技術呈現加速發(fā)展。今年,英偉達打算培訓10萬個開發(fā)者使用該項技術。

  Tesla V100另稱為Volta,針對深度學習而打造,Tensor性能可達每秒120萬億次浮點運算。它能夠每秒傳輸300GB的數據,速度相當于時下其它處理器的20倍。該款芯片由三星代工生產。

  該芯片針對深度學習訓練的Tensor浮點運算性能達到去年發(fā)布的Pascal處理器的12倍。這種處理速度很有必要,因為深度學習算法的進展令人驚嘆。

  2015年,微軟打造了一個名為ResNet的深度學習項目,該項目非常復雜,需要每秒7百億億次浮點運算的處理能力。百度2016年打造的Deep Speech 2 需要每秒20百億億次浮點運算的處理能力,谷歌2017年打造的NMT則需要每秒105百億億次浮點運算的處理能力。

  微軟正在開發(fā)一個新的ResNet版本,ResNet會同時使用64個Tesla V100芯片來進行處理。目前還不清楚Tesla V100批量出貨的時間。



關鍵詞: 英偉達 AI

評論


相關推薦

技術專區(qū)

關閉