新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 谷歌發(fā)布強大AI芯片和超算 要轉(zhuǎn)型硬件制造商?

谷歌發(fā)布強大AI芯片和超算 要轉(zhuǎn)型硬件制造商?

作者: 時間:2017-05-18 來源:網(wǎng)易科技報道 收藏
編者按:這也反映出快速進步的AI正如何改變谷歌本身,已經(jīng)有可靠跡象顯示,谷歌希望能領(lǐng)導AI軟件和硬件等相關(guān)方面的發(fā)展趨勢。

  5月18日消息,據(jù)technologyreview報道,如果說人工智能(AI)能夠迅速蠶食掉軟件,那么可能擁有最大的胃口。在今年的I/O開發(fā)者大會上,發(fā)布了更為強大的和以機器學習為基礎(chǔ)的超級計算機,它們將有助于成為以AI為重點的硬件制造商。

本文引用地址:http://butianyuan.cn/article/201705/359359.htm


谷歌發(fā)布強大AI芯片和超算 要轉(zhuǎn)型硬件制造商?


  在I/O開發(fā)者大會上,谷歌首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)介紹了谷歌研發(fā)的新計算機處理器,用于支持機器學習技術(shù)。近年來,機器學習已經(jīng)在IT行業(yè)掀起強大風暴。

  或許最重要的是,或者說至少對于研究機器學習技術(shù)的人來說,谷歌新的處理器不僅可以更快的速度執(zhí)行任務(wù),它還能被以令人難以置信的效率訓練。谷歌新處理器名為云張量處理單元(Cloud Tensor Processing Unit),它以谷歌的開源機器學習框架TensorFlow的名義命名。

  訓練是機器學習領(lǐng)域最基礎(chǔ)的部分。舉例來說,為了開發(fā)出能夠識別照片中熱狗的算法,你可能需要訓練算法識別數(shù)以萬計的熱狗照片,直到其學會區(qū)分。但是訓練某個大模型的運算非常復雜,而且這種訓練可能需要持續(xù)數(shù)天甚至數(shù)周。

  皮查伊還在開發(fā)者大會上公布了機器學習超級計算機,或稱Cloud TPU Pod,它以Cloud TPU集群為基礎(chǔ),可高速處理數(shù)據(jù)連接。皮查伊稱,谷歌也在研發(fā)TensorFlow Research Cloud,它由數(shù)以千計的TPU組成。皮查伊表示:“我們正建立我們所謂的AI優(yōu)先數(shù)據(jù)中心,Cloud TPU正幫助優(yōu)化訓練和推理,這為AI取得顯著進步打下基礎(chǔ)。”谷歌將制造1000套Cloud TPU系統(tǒng),為那些愿意公開分享自己研發(fā)工作細節(jié)的AI研究人員提供支持。

  皮查伊在主題演講中還宣布多個AI研究計劃,包括努力開發(fā)能夠?qū)W習如何從事耗時工作的算法,包括微調(diào)其他機器學習算法。他還稱,谷歌正為醫(yī)學圖像分析、基因組分析以及分子發(fā)現(xiàn)開發(fā)AI工具。在開發(fā)者大會之前,谷歌高級研究員杰夫·迪恩(Jeff Dean)表示,這些項目有助于幫助AI進步。他說:“許多頂級研究人員還沒有像他們所希望的那樣,獲得強大的計算能力支持。”

  谷歌進軍以AI為重點的硬件和云服務(wù)領(lǐng)域,部分原因是受其自身業(yè)務(wù)加速的驅(qū)動。谷歌已經(jīng)在使用TensorFlow為搜索、語音識別、翻譯以及圖形處理等提供支持。此外,谷歌也在Alphabet子公司DeepMind開發(fā)的智能程序AlphaGo中使用這種技術(shù)。

  但從戰(zhàn)略上看,谷歌可能在防止其他公司在機器學習領(lǐng)域取得主導地位。比如專門研發(fā)和制造圖形處理的英偉達,其已經(jīng)開始被用于深度學習領(lǐng)域,并在各種產(chǎn)品中變得越來越突出。為了提供某些措施以衡量其Cloud TPU提供的加速表現(xiàn),谷歌表示其翻譯算法可能受到訓練,使用新硬件后比現(xiàn)有硬件速度快得多。32個最好的GPU全天的訓練量,TPU Pod只需要發(fā)揮1/8的水平就可在1個下午完成。

  谷歌云計算團隊首席科學家、斯坦福大學AI實驗室主管李飛飛(Fei-Fei Li)稱:“這些TPU可提供驚人的128萬億次浮點運算,它們是專為驅(qū)動機器學習技術(shù)的芯片。”與之相比,iPhone 6可提供100萬億次浮點運算。谷歌表示,他們還可能為研究人員設(shè)計使用其他硬件的算法,這就是他們所謂的“民主化機器學習”。自從谷歌2015年發(fā)布TensorFlow以來,越來越多的研究人員開始使用它。谷歌宣稱,TensorFlow已經(jīng)成為世界上使用最廣泛的深度學習框架。

  機器學習專家目前正處于供不應求的狀態(tài),因為許多行業(yè)的公司都希望能夠利用不斷取得進展的AI力量。皮查伊表示,解決這種技術(shù)短缺的方案之一就是開發(fā)機器學習軟件,用以取代AI專家開發(fā)機器學習軟件的部分工作。

  在谷歌開發(fā)者大會上,皮查伊公布了谷歌下屬AI研究團隊Google Brain正正進行的AutoML項目,研究人員已經(jīng)展示,他們的學習算法可以自動化執(zhí)行特定任務(wù)的機器學習軟件設(shè)計中最棘手的部分工作。在某些情況下,他們的自動化系統(tǒng)還能夠提出媲美人類機器學習專家甚至超越他們的方案。皮查伊表示:“這讓人感到非常興奮,它可以加速整個領(lǐng)域發(fā)展,幫助我們解決今天面對的某些最具挑戰(zhàn)性的問題?!?/p>

  皮查伊希望AutoML項目擴大開發(fā)者數(shù)量,他們可通過減少專業(yè)知識要求來更好地利用機器學習。這非常符合谷歌的定位策略,其云計算服務(wù)成為開發(fā)和托管機器學習的最佳平臺。谷歌也正努力在企業(yè)云計算市場吸引更多新客戶,因為谷歌在這個市場落后于亞馬遜和微軟。

  AutoML項目的目標是幫助人們更容易使用深度學習技術(shù),谷歌和其他公司正利用它支持語音識別、圖像識別、翻譯以及機器人研究等。深度學習可讓數(shù)據(jù)通過一系列松散的數(shù)學計算層幫助軟件變得更聰明,這種計算層受到生物學啟發(fā),為此被稱為人工神經(jīng)網(wǎng)絡(luò)。谷歌AutoML項目機器學習研究員富國樂(Quoc Le)表示,為神經(jīng)網(wǎng)絡(luò)的數(shù)學模型選擇正確的框架非常重要,但卻并不容易。



關(guān)鍵詞: 谷歌 芯片

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉