新聞中心

EEPW首頁 > 智能計算 > 編輯觀點 > 藍海變成紅海?AMD在AI領(lǐng)域向英偉達發(fā)起挑戰(zhàn)!

藍海變成紅海?AMD在AI領(lǐng)域向英偉達發(fā)起挑戰(zhàn)!

作者:ZongYu 時間:2023-06-16 來源:EEPW 收藏

最近今年隨著各種生成式AI的大伙,著實是風(fēng)光了好一陣子。作為被大眾成為新一代“工業(yè)革命”的生成式AI,在現(xiàn)實中雖剛剛進入應(yīng)用階段,作為AI訓(xùn)練最優(yōu)秀的硬件生產(chǎn)商的,股票可謂是節(jié)節(jié)高升,面對這一片藍海其他廠商不可能不眼紅,于是就在前不久2023613的老對手在數(shù)據(jù)中心和人工智能首映式上就發(fā)布了全新一代AI芯片,號稱世界上最強的AI處理芯片。

本文引用地址:http://butianyuan.cn/article/202306/447759.htm

圖片1.jpg 

英偉達AI計算平臺H100

 

在會議開始時, 全球總裁兼 CEO 蘇姿豐表示:今天,我們在數(shù)據(jù)中心戰(zhàn)略上又向前邁出了重要一步,因為我們擴展了第四代 EPYC 處理器系列,為云和技術(shù)計算工作負(fù)載提供了新的領(lǐng)先解決方案,并宣布了與最大的云提供商的新公共實例和內(nèi)部部署。人工智能是塑造下一代計算的決定性技術(shù),也是  最大的戰(zhàn)略增長機會。我們專注于加速 AMD AI 平臺在數(shù)據(jù)中心的大規(guī)模部署,計劃于今年晚些時候推出我們的 Instinct MI300 加速器,以及為我們的硬件優(yōu)化的企業(yè)級 AI 軟件生態(tài)系統(tǒng)不斷壯大。

隨后蘇姿豐博士便發(fā)布了三款全新的面對數(shù)據(jù)中心和AI平臺的芯片,分別是:新一代的 Epyc 處理器,Bergamo 是針對云原生應(yīng)用的產(chǎn)品線,也是第一款使用 Zen 4c 架構(gòu)的產(chǎn)品;最新的緩存堆疊 芯片,代號為 Genoa-X與具有相同內(nèi)核數(shù)的 Intel Xeon 的比較,性能提高了 2.2 倍和 2.9 倍;新款  專用的 MI300X AI 加速器,并表示 MI300X 和 8- Instinct 平臺將在第三季度出樣,并在第四季度推出。我們分別來簡要介紹一下。

正如上文所說Bergamo 是針對云原生應(yīng)用的產(chǎn)品線,Bergamo所使用的Zen 4c架構(gòu)是一種“青春版”,進行了一系列的精簡,重新設(shè)計了L3快取系統(tǒng),對比完整的Zen 4架構(gòu)其芯片面積減少了35%。

在具體規(guī)模方面, Bergamo Epyc 處理器具有 最高128 個核心和 256 個線程,分布在八個核心復(fù)合芯片上。其中每一個CCD芯片之上,16Zen 4c,而一顆Bergamo其上最多集成8CCD,因此其最高具備128 核心,同時其采用了臺積電5nm工藝制造,共有高達 820 億個晶體管。

圖片2.jpg 

AMD Bergamo Epyc 處理器

 

Meta將作為Bergamo芯片最先一批客戶Meta計劃為其基礎(chǔ)架構(gòu)使用Bergamo,它的性能比上一代 Milan 芯片高出 2.5 倍。Meta 還將使用 Bergamo 作為其存儲平臺。

 

接下來便便是AMD推出的Genoa-X,其針對的場景主要是高性能計算例如流體力學(xué)、分子動力學(xué)、有限元分析等等對于帶寬要求極高的科學(xué)計算應(yīng)用。為此AMDGenoa-X CPU 在每個芯片計算芯片上堆疊了 64MB SRAM 因此其三級緩存來到了驚人的1.1GB的大小。得益于如此恐怖的三級緩存大小,Genoa-X 與具有相同內(nèi)核數(shù)的 Intel Xeon 的比較,其對于流體力學(xué)的計算能力直接提升了2.2

圖片3.png 

AMD Genoa-X

 

而本次發(fā)布會的重磅內(nèi)容,自然是AMD面向AI的計算平臺Instinct MI300 加速器。它的對標(biāo)對手,正是近期大紅大紫的英偉達“地球最強”計算平臺,H100系列。AMD Instinct MI300 于去年 月首次發(fā)布,并在 2023 年國際消費電子展上進行了更深入的詳細介紹,這是 AMD 在 AI 和 HPC 市場的重要一步。

 圖片3.jpg

AMD直面英偉達推出的平臺MI300系列

 

在本次發(fā)布會之上,蘇姿豐發(fā)布了兩款MI300系列加速器,分別是MI300AMI300X。其中,MI300A基礎(chǔ)款,MI300X則是硬件性能更高的大模型優(yōu)化款。

我們先來看看MI300A的基本情況,據(jù)AMD表示,MI300A是首款AMD面對AI和高性能計算(HPC)推出的APU。它一共擁有13個小芯片,包含95nm制程GPU+CPU,以及46nm制程的小芯片(base dies),包含1460億個晶體管,其中有24Zen 4 CPU核心,1CDNA 3圖形引擎,128GBHBM3內(nèi)存。九個計算裸片混合了 5nm CPU 和 GPU,它們以 3D 方式堆疊在四個 6nm 基礎(chǔ)裸片之上,這些裸片是處理內(nèi)存和 I/O 流量以及其他功能的有源中介層。對比與上一代產(chǎn)品MI250,性能提升了8倍,效率提升了5倍。

作為重量級產(chǎn)品的MI300X,AMDPPT上打出了十分令人矚目的一行字For LLM——大語言模型專用。AMD表示,MI300X的高帶寬內(nèi)存(HBM)密度,最高可達英偉達H1002.4倍,高帶寬內(nèi)存帶寬最高可達H1001.6倍,顯然MI300X能運行比H100更大的AI模型。在發(fā)布會上,蘇姿豐博士還現(xiàn)場運行了Hugging Face falcon-40b-instruct模型,寫了首關(guān)于舊金山(這次AMD發(fā)布會地址)的小詩,以此來展示MI300X在本地處理大語言模型的強大算力

圖片4.png 

在硬件參數(shù)方面,MI300X包含12個小芯片,1530億個晶體管,192GBHBM3內(nèi)存,內(nèi)存帶寬達到5.2TB/s,Infinity Fabric帶寬達到896GB/s。這次MI300X所提供的HBM密度是對手英偉達H1002.4,HBM帶寬則是1.6。單單從硬件參數(shù)上來看MI300X無疑是已經(jīng)超過了英偉達的H100,成為了這個星球上最強的LLM訓(xùn)練硬件,但是有趣的是,就在MI300系列發(fā)布的時刻,資本市場的反應(yīng)卻不是很樂觀

圖片5.png 

隨著發(fā)布會的進行,AMD的股票是一跌再跌。跌幅最大的時候一度超過了3.61%而英偉達這邊倒是迎來的一波小小的漲幅。看來對于投資者來說對于AMD強勢發(fā)布的MI300系列好像并不是很好看。鑒于AMD這幾年來在AI方面的遲緩,再加上MI300X要等到今年年末才有可能被AMD推向市場,這種股價變動,倒也是在意料之中。

不管怎么說,英偉達已經(jīng)在AI計算領(lǐng)域稱王稱霸了許久,現(xiàn)在終于有一個實力“靠譜”的新選手上臺挑戰(zhàn)了,無論結(jié)果如何,對于整個市場來說一定是樂于見到的,比起英偉達的一家獨大,百家爭鳴才是一個良性的環(huán)境

   




關(guān)鍵詞: AI計算 AMD 英偉達 GPU

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉