新聞中心

EEPW首頁 > 智能計算 > 市場分析 > 微軟重磅官宣推出 AI 自研芯片,與H100、特斯拉D1等AI芯片性能對比

微軟重磅官宣推出 AI 自研芯片,與H100、特斯拉D1等AI芯片性能對比

作者: 時間:2023-11-19 來源:半導(dǎo)體產(chǎn)業(yè)縱橫 收藏

北京時間周四凌晨 1 點,(Microsoft)Ignite 技術(shù)大會在西雅圖揭幕,該公司 CEO 薩蒂亞·納德拉進行了接近 1 個小時的開幕演講,介紹了 龍頭取得的最新進步。

本文引用地址:http://butianyuan.cn/article/202311/453077.htm

此次,發(fā)布了首款自家研發(fā)的人工智能()芯片 Maia 100,以及應(yīng)用于云端軟件服務(wù)的芯片 Cobalt。兩款芯片將由臺積電代工,采用 5nm 制程技術(shù)。

目前, 芯片市場由英偉達(Nvidia)獨霸,有大量 AI 芯片需求的科技大廠極力尋求可替代的供應(yīng)來源; 自行研發(fā),希望增強 ChatGPT 等生成式 AI 產(chǎn)品的性能,同時降低成本。

Cobalt 是基于 Arm 架構(gòu)的通用型芯片,具有 128 個核心,Maia 100 為特定 AI 加速器,用于云端訓(xùn)練和推理的,晶體管數(shù)量達到 1050 億個。這兩款芯片明年將導(dǎo)入微軟 Azure 數(shù)據(jù)中心,支持 OpenAI、Copilot 等服務(wù)。

目前,英偉達在 AI 芯片市場的市占高達 80% 左右,需求強勁,高端產(chǎn)品一顆有時可賣到 3 萬到 4 萬美元。日經(jīng)亞洲指出,用于 ChatGPT 的芯片被認為大概就需要有 1 萬顆,這對 AI 公司是個龐大成本。

負責 Azure 芯片部門的副總裁 Rani Borkar 表示,微軟已開始用 Bing 和 Office AI 產(chǎn)品測試 Maia 100 芯片,微軟主要 AI 合作伙伴、ChatGPT 開發(fā)商 OpenAI,也在進行測試中。

彭博資訊指出,微軟的多年投資顯示,芯片對于在 AI 和云計算領(lǐng)域取得優(yōu)勢至關(guān)重要。自研芯片可以讓微軟從硬件中獲得性能和價格優(yōu)勢,還可以避免微軟過度依賴任何一家供應(yīng)商。目前業(yè)界對英偉達 AI 芯片的爭奪戰(zhàn),更加凸顯了這個問題。

在微軟進軍自研處理器之前,在云計算市場上的競爭對手也采取類似策略。亞馬遜在 2015 年收購了一家芯片制造商,并提供多種云端運算與 AI 芯片服務(wù)。Google 從 2018 年開始,也已讓客戶使用其 AI 加速處理器。

除了發(fā)布的這兩款芯片,業(yè)界一直在傳,微軟有一個代號為「Athena」的 AI 芯片項目,2019 年就開始了內(nèi)部研發(fā)。據(jù)悉,微軟希望 Athena 芯片的性能優(yōu)于目前從其它供應(yīng)商處購買的芯片,從而節(jié)省其在昂貴的 AI 業(yè)務(wù)上的時間和成本。

有市場評論認為,微軟 AI 芯片立項的時機很巧,正好在微軟、OpenAI 等公司培養(yǎng)的大型語言模型已經(jīng)開始騰飛之際。兩位知情人士表示,OpenAI 的 ChatGPT 聊天機器人的發(fā)布讓人們興奮──根據(jù)分析師預(yù)估,截至今年 1 月,也就是 ChatGPT 發(fā)布兩個月后,該機器人已經(jīng)擁有超過 1 億用戶──這促使微軟加快 Athena 的研發(fā)和推出。

知情人士說,微軟最快可以在明年讓 Athena 在公司和 OpenAI 內(nèi)部廣泛使用。不過其中一名知情人士表示,微軟內(nèi)部仍在爭論是否會向其 Azure 云計算服務(wù)的客戶提供這些芯片。

如果微軟確實走向其云計算客戶提供芯片,它還必須為其打造比英偉達當前產(chǎn)品更具吸引力的軟件,英偉達在該領(lǐng)域已深耕 15 年,其軟件產(chǎn)品已在全球廣泛使用。

調(diào)研公司 SemiAnalysis 的首席分析師 Dylan Patel 估算,ChatGPT 的運營成本為每天約 70 萬美元或每次查詢 0.36 美元。Patel 說:「大部分成本來自其所需的昂貴服務(wù)器。和英偉達產(chǎn)品相比,若 Athena 具競爭力,可以將每個芯片的成本降低三分之一。」

Patel 還表示,微軟希望他們在所有的應(yīng)用程序中都使用這個大型語言模型,包括 Bing、Microsoft 365 和 GitHub。如果采用英偉達現(xiàn)成的軟件進行大規(guī)模部屬,光芯片這一項成本每年就要燒掉數(shù)百億美元。

微軟并不認為自己的 AI 芯片可以廣泛替代英偉達的產(chǎn)品。有分析認為,微軟的這一努力如果成功的話,也有可能幫助它在未來與英偉達的談判中更具優(yōu)勢。

此次,微軟還推出了名為 Sidekicks 的定制液冷硬件,該硬件安裝在包含 Maia 服務(wù)器的機架旁邊的機架中。一位發(fā)言人表示,該公司無需改造即可安裝服務(wù)器機架和 Sidekick 機架。

在網(wǎng)絡(luò)連接方面,為了滿足 AI 和未來工作負載的要求,微軟推出了新一代空芯光纖(Hollow Core Fiber),利用空氣作為光纖的導(dǎo)光介質(zhì),能夠?qū)鬏斔俣忍岣?47%。當然這也與微軟的「鈔能力」有關(guān),公司在去年 12 月底收購了這條賽道的領(lǐng)跑者英國 Lumenisity。

會上,納德拉宣布 Azure Boost 數(shù)據(jù)中心硬件也將正式投入商用。該系統(tǒng)能夠?qū)⒋鎯途W(wǎng)絡(luò)進程將主機轉(zhuǎn)移到專用硬件和軟件上,從而提高速度。

據(jù)千芯科技董事長陳巍博士分析,就 Maia 100 性能來看,MXFP4 算力達到了 3200TFLOPS,MXInt8 算力達到 1600TFLOPS(這里有可能是新聞筆誤,因為 INT8 算力一般按照 TOPS 單位)。SIMD 算力為 48TFLOPS,具備 140MB L1 緩存和 448MB L2 緩存,HBM3 容量為 64GB,TDP 功耗 860W,采用 TSMC N5 工藝,面積 820mm^2,105BIllion 晶體管。

對比一下 Maia 100 和其他幾個家世顯赫的芯片性能,可以看到 Maia 具有大量的片上 SRAM(單芯片合計 588MB),甚至超過了特斯拉 D1,有可能是存算一體(近存計算)架構(gòu)的 AI DSA。初步猜測其架構(gòu)和液冷方式與特斯拉 Dojo 接近。

緊密聯(lián)系合作伙伴

基于微軟與 AI 軟件龍頭 OpenAI 的緊密關(guān)系,所以微軟 Azure 云服務(wù)也將在第一時間向用戶提供 OpenAI 的最新產(chǎn)品,例如 GPT-4 Trubo 和多模態(tài)能力,以及基于 GPT-4 的微調(diào)。

微軟也在今天宣布推出「MAAS」產(chǎn)業(yè)模式(Models as a Service/模型即服務(wù)),用戶可以直接通過微軟的服務(wù)來調(diào)用 API、微調(diào)和部署各類開源大模型。微軟也已經(jīng)與 Meta 等一眾大模型開發(fā)商達成合作,將 Llama 2 等知名 LLM 作為一項服務(wù)推出。

納德拉宣布,Azure 云將發(fā)布英偉達的 AI 工坊服務(wù)(AI foundry service),為此他還請來了黃仁勛,講述兩家 AI 巨頭從硬件到軟件的全面合作。

據(jù)悉,英偉達 AI 工坊涵蓋英偉達的 AI 基礎(chǔ)模型、NeMo 框架和工具,以及英偉達 DGX Cloud AI 超級計算和服務(wù)三大要素。微軟用戶將可以在 Azure 云上利用英偉達的 AI 軟件生成并部署模型。

黃仁勛表示,AI 的第一波浪潮源自 OpenAI 等一批創(chuàng)業(yè)公司,而現(xiàn)在整個產(chǎn)業(yè)已經(jīng)進入了第二波浪潮,由微軟 Copilot 推動的企業(yè)級 AI。在他看來,第三波也是最大的那一波將會是整個世界的重工業(yè)數(shù)字化,并從生成式 AI 中獲益。



關(guān)鍵詞: 微軟 AI

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉