博客專欄

EEPW首頁 > 博客 > 傳聯(lián)發(fā)科拿下谷歌服務器AI芯片大單,將供應高速Serdes芯片

傳聯(lián)發(fā)科拿下谷歌服務器AI芯片大單,將供應高速Serdes芯片

發(fā)布人:芯片行業(yè) 時間:2023-06-19 來源:工程師 發(fā)布文章

6月19日消息,據(jù)中國臺灣媒體報道,谷歌(Google)為了研發(fā)最新的面向服務器的AI芯片,已經(jīng)找來聯(lián)發(fā)科合合作,并計劃交由臺積電5nm制程代工,計劃明年初量產(chǎn)。

報道稱,消息人士透露,這次谷歌與聯(lián)發(fā)科的合作,將由聯(lián)發(fā)科提供串行器及解串器(SerDes)方案,并協(xié)助整合谷歌自研的張量處理器(TPU),助力谷歌打造最新的服務器AI晶片,性能將比CPU或GPU架構更強大。

業(yè)界指出,谷歌目前的多項服務都與AI有關,早在多年前就投入到了深度學習技術當中,發(fā)現(xiàn)運用GPU來進行AI運算成本十分昂貴,因此谷歌決定自行開發(fā)深度學習專用的處理器芯片TPU,并于2015年推出了第一代TPU處理器,與當時的CPU與GPU相比,其TPU能提供高出30至100倍的每秒浮點運算性能,在整體運算效能表現(xiàn)有多達15到30倍的提升,甚至在效能、功耗比上,更是獲得近30至80倍的改善,隨后該芯片被部署到了谷歌自家的數(shù)據(jù)中心當中。如今谷歌的TPU芯片已經(jīng)發(fā)展到了第四代。

而此次谷歌找來聯(lián)發(fā)科合作,主要是看中了聯(lián)發(fā)科在高速Serdes方面的實力。具體來說,高速SerDes是兩個獨立的器件,即發(fā)送器(串行器)和接收器(解串器),是云端數(shù)據(jù)流量和分析的重要關卡。隨著數(shù)據(jù)中心對于數(shù)據(jù)處理規(guī)模的持續(xù)擴大,需要各種不同形式的網(wǎng)絡,從服務器到機架路由器的頂端、從機架到機架,以及從各地或全世界的數(shù)據(jù)中心進行遠距離運輸,都需要用高速SerDes芯片。比如,服務器之間的數(shù)據(jù)互聯(lián)傳輸通常采用的是光纖,其中光模塊內(nèi)就需要需集成高速SerDes芯片,光模塊帶寬的提升就需要增加SerDes通道數(shù),或者提高單個SerDes通道的傳輸速率,因此高速SerDes芯片也成為了數(shù)據(jù)中心的關鍵器件。

2019年11月,聯(lián)發(fā)科就宣布其ASIC服務將擴展至112G遠程(LR)SerDes IP芯片。MediaTek的112G 遠程 SerDes采用經(jīng)過硅驗證的7nm FinFET制程工藝,使數(shù)據(jù)中心能夠快速有效地處理大量特定類型的數(shù)據(jù),從而提升計算速度。

image.png

△聯(lián)發(fā)科的7nm 56G PAM4 SerDes IP原型芯片

消息人士透露,聯(lián)發(fā)科自行研發(fā)的Serdes已經(jīng)有多款產(chǎn)品量產(chǎn),技術成熟,此次協(xié)助谷歌打造的AI服務器芯片將采用臺積電5nm制程生產(chǎn),預計今年底前送交給臺積電Tape out,力拼明年年初量產(chǎn)。

此前聯(lián)發(fā)科總經(jīng)理陳冠州曾公開表示,不論是終端或云端的AI,以及如何迎接大型語言模型(LLM)的發(fā)展趨勢,都是聯(lián)發(fā)科在思考的議題。聯(lián)發(fā)科在AI運算技術領域投入很多,從幾年前就認為,未來的運算不只是CPU、GPU,還會有基于AI的APU趨勢會興起,所以也在其天璣5G芯片中導入APU架構。聯(lián)發(fā)科將于10月底推出天璣系列第三代晶片天璣9300,將具備基于LLM的AI運算技術。

編輯:芯智訊-林子


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



關鍵詞: 芯片

相關推薦

技術專區(qū)

關閉