Google一年追上摩爾定律七年進(jìn)度
每年重要盛會(huì)之一的Google I/O 2016年開發(fā)者大會(huì)在美國(guó)時(shí)間18日上午登場(chǎng),這次Google端出不少新東西,詳細(xì)可看科技新報(bào)的整理報(bào)導(dǎo),還有一件值得關(guān)注的事,Google在大會(huì)上揭露公司正在打造機(jī)器學(xué)習(xí)專用的晶片--TPU(Tensor Processing Unit)。
本文引用地址:http://butianyuan.cn/article/201605/291456.htmGoogle 人工智能Alpha Go 在日前贏了南韓圍棋九段高手李世乭,AlphaGO 致勝的關(guān)鍵,就在于結(jié)合機(jī)器學(xué)習(xí)(Machine Learning)與深層類神經(jīng)網(wǎng)路(deep neural networks),模擬圍棋高手如何分析盤面、找出最有利的下法,步步為營(yíng)。Google CEO 桑德爾?皮查(Sundar Pichai )在18 日Google I/O 大會(huì)上進(jìn)一步揭露了這當(dāng)中的秘密。
皮查指出,Google 專門為深層類神經(jīng)網(wǎng)路設(shè)計(jì)了特殊應(yīng)用IC(application-specific integrated circuit,ASIC),以ASIC 為基礎(chǔ)的硬體或軟體,將能透過(guò)分析大量的數(shù)據(jù)學(xué)習(xí)特殊任務(wù),Google 借由神經(jīng)網(wǎng)路得以辨識(shí)物件、照片中的人臉、了解傳到Android 手機(jī)上的說(shuō)話指令,以及翻譯技術(shù),甚至因此改變了Google 搜尋引擎。也是這項(xiàng)技術(shù)提升了Alpha GO 的計(jì)算速度,并使其思慮看得更深遠(yuǎn)。
Google將運(yùn)用此技術(shù)打造的機(jī)器學(xué)習(xí)專用晶片稱之為TPU(Tensor Processing Unit),Google在其自家部落格文章稱,由于TPU專為機(jī)器學(xué)習(xí)所運(yùn)行,得以較傳統(tǒng)CPU、GPU降低精度,在計(jì)算所需的電晶體數(shù)量上,自然可以減少,也因此,可從電晶體中擠出更多效能,每秒執(zhí)行更復(fù)雜、強(qiáng)大的機(jī)器學(xué)習(xí)模組,并加速模組的運(yùn)用,使得使用者更快得到答案,Google指出,團(tuán)隊(duì)已經(jīng)在數(shù)據(jù)中心執(zhí)行TPU超過(guò)一年,且發(fā)現(xiàn)TPU能讓機(jī)器學(xué)習(xí)每瓦提高一個(gè)數(shù)量級(jí),粗略來(lái)說(shuō),相當(dāng)于摩爾定律中晶片效能往前推進(jìn)了七年或者三代。搭載TPU的機(jī)板只要安裝在Google數(shù)據(jù)中心的硬碟插槽上即可。
Google 在去年發(fā)表機(jī)器學(xué)習(xí)系統(tǒng)TensorFlow,并強(qiáng)調(diào)其為開源,意味著任何人都可以使用甚至修改這套軟體引擎,但不代表外部使用者可共享Google TPU 的設(shè)計(jì),不過(guò)可以透過(guò)Google 云端服務(wù)使用Google各式機(jī)器學(xué)習(xí)軟硬體服務(wù)。
而Google 揭露了這項(xiàng)計(jì)畫也為半導(dǎo)體巨頭們帶來(lái)警訊,Google 并未使用、或什少使用IC大廠的晶片,而是自己自行研發(fā)晶片,微軟目前也利用FPGA 加速人工智能運(yùn)算。
評(píng)論