新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > AI的決定性時刻 英偉達“贏麻了”

AI的決定性時刻 英偉達“贏麻了”

作者: 時間:2023-03-22 來源:快科技 收藏

“切勿錯過的決定性時刻!”這是2023年GTC大會的廣告語。不知所說的“決定性時刻”是指黃仁勛在GTC大會主題演講中三次強調的“的iPhone時刻”,還是說本屆GTC大會就是的“決定性”時刻。

本文引用地址:http://butianyuan.cn/article/202303/444739.htm

當然,今時今日可能確實是AI的決定性時刻。

從上周三到現(xiàn)在,一系列或驚艷,或不那么驚艷的最前沿AI技術接二連三地刷爆科技新聞版面。從OpenAI發(fā)布GPT-4,到百度發(fā)布文心一言,再到微軟發(fā)布Office的AI助手Microsoft 365 Copilot,以及Midjourney發(fā)布能“畫手指”的V5版本,甚至幾個小時前,谷歌也上線了Bard聊天機器人接受排隊測試。

在這樣的AI關鍵時刻,手握GPU算力技術的自然不會缺席,畢竟在大模型軍備競賽中,作為“軍火商”的英偉達,已經(jīng)贏麻了。

北京時間3月21日晚11點,2023春季GTC大會正式上線,在大會的主題演講中,黃仁勛圍繞AI、量子計算、芯片等前沿科技,發(fā)布了一系列前沿技術和產(chǎn)品。

AI的決定性時刻 英偉達“贏麻了”

ChatGPT專用GPU可提速10倍

圍繞AI的發(fā)布自然少不了GPU的提速,在黃仁勛的主題演講中發(fā)布了全新的GPU推理平臺,該平臺包括4種不同配置,針對不同工作負載進行優(yōu)化,分別對應了AI視頻加速、圖像生成加速、大型語言模型(LLM)加速和推薦系統(tǒng)和LLM數(shù)據(jù)庫。包括:L4 Tensor Core GPU、L40 GPU、H100 NVL GPU和Grace Hopper超級芯片。

AI的決定性時刻 英偉達“贏麻了”

其中,H100 NVL是專門為LLM設計的GPU,采用了Transformer加速解決方案,可用于處理ChatGPT。相比于英偉達HGX A100,一臺搭載四對H100和雙NVLINK的標準服務器速度能快10倍,可以將大語言模型的處理成本降低一個數(shù)量級。此外,H100 NVL配備94GB HBM3顯存的PCIe H100 GPU,采用雙GPU NVLink,支持商用PCIe服務器輕松擴展。

L4是針對AI生成視頻的通用GPU,用于加速AI視頻,可以提供比CPU高120倍的性能,能效提升約99%。可以優(yōu)化視頻解碼與轉碼、視頻內容審核、視頻通話等性能,一臺8-GPU L4服務器可以取代100多臺用于處理AI視頻的雙插槽CPU服務器。目前,英偉達GPU在AI視頻生產(chǎn)技術供應商Runway的產(chǎn)品中已經(jīng)提供了相應的技術支持。

L40則是用于圖像生成,針對2D、3D圖像生成進行優(yōu)化,并可以結合Omniverse,直接生成3D內容,甚至是元宇宙內容。該平臺推理性能是英偉達的云推理GPU T4的10倍。

此外,Grace Hopper超級芯片是為推薦系統(tǒng)和大型語言模型AI數(shù)據(jù)庫設計的??捎糜趫D推薦模型、向量數(shù)據(jù)庫和圖神經(jīng)網(wǎng)絡。它可以通過900GB/s的高速一致性芯片到芯片接口連接英偉達Grace CPU和Hopper GPU。

計算光刻技術提速40倍

黃仁勛帶來的另一項革命性技術,也關乎英偉達自身的產(chǎn)品研發(fā),是一項聚焦先進芯片設計制造的技術——NVIDIA cuLitho的計算光刻庫。

NVIDIA cuLitho計算光刻庫可以通過計算技術大幅優(yōu)化芯片制造流程,利用GPU技術實現(xiàn)計算光刻,可以使傳統(tǒng)光刻技術提速40倍以上,為2nm及更先進芯片的生產(chǎn)提供助力。

AI的決定性時刻 英偉達“贏麻了”

事實上,英偉達的計算光刻庫在研發(fā)過程中,已經(jīng)與3家全球頂尖的芯片制造廠商開展了長達4年的合作。包括晶圓制造巨頭臺積電、光刻機制造商阿斯麥,以及EDA巨頭新思科技,目前3家廠商均已開始將該技術引入芯片設計和制造流程。

“計算光刻是芯片設計和制造領域中最大的計算工作負載,每年消耗數(shù)百億CPU小時?!秉S仁勛介紹說,大型數(shù)據(jù)中心24x7全天候運行,以便創(chuàng)建用于光刻系統(tǒng)的掩膜板。這些數(shù)據(jù)中心是芯片制造商每年投資近2000億美元的資本支出的一部分。

NVIDIA H100需要89塊掩膜板,在CPU上運算時,處理單個掩膜板,當前需要2周時間。如果在GPU上運行cuLitho則只需8小時即可處理完一個掩膜板。黃仁勛說:“臺積電可以通過在500個DGX H100系統(tǒng)上使用cuLitho加速,將功率從35MW降至5MW,替代用于計算光刻的40000臺CPU服務器。”

GPU&量子計算

除了AI和芯片以外,英偉達還在研究另一項前沿科技——量子計算。

本次GTC上宣布的第一個全新產(chǎn)品就是與Quantum Machines合作的NVIDIA DGX Quantum。該產(chǎn)品結合了通用量子控制系統(tǒng)Quantum Machines OPX+和NVIDIA Grace Hopper超級芯片,這個平臺可以為高性能和低延遲量子經(jīng)典計算的研究人員提供了一種革命性的新架構。

AI的決定性時刻 英偉達“贏麻了”

據(jù)黃仁勛介紹,NVIDIA DGX Quantum是全球首個GPU加速的量子計算系統(tǒng),可以實現(xiàn)GPU和量子處理單元(QPU)之間的亞微秒級延遲。這種組合使研究人員能夠建立強大的應用,實現(xiàn)校準、控制、量子糾錯和混合算法,將量子計算與最先進的經(jīng)典計算相結合。

DGX Quantum還為開發(fā)人員配備了統(tǒng)一軟件棧,混合GPU-Quantum編程模型NVIDIA CUDA Quantum,能夠在同一系統(tǒng)中整合和編程 QPU、GPU 和 CPU,是一個混合型量子經(jīng)典計算平臺。目前,CUDA Quantum 已經(jīng)開放了源代碼,為開發(fā)者提供了更多的支持。

AI超級計算上云

本次GTC的另一個重頭戲是云。

英偉達發(fā)布的DGX Cloud云服務,提供了專用的NVIDIA DGX AI超級計算集群,搭配NVIDIA AI軟件,使每個企業(yè)都可以使用簡單的網(wǎng)絡瀏覽器訪問AI超算,消除了獲取、部署和管理本地基礎設施的復雜性。

該服務目前已經(jīng)與Microsoft Azure、Google GCP和Oracle OCI開展合作。每個DGX Cloud實例都具有八個H100或A100 80GB Tensor Core GPU,每個節(jié)點共有640GB GPU內存。

AI的決定性時刻 英偉達“贏麻了”

使用NVIDIA Networking構建的高性能、低延遲結構,可以確保工作負載跨互連系統(tǒng)集群擴展,允許多個實例充當一個巨大的GPU,以滿足高級AI訓練的性能要求。

目前,英偉達開放的首個NVIDIA DGX Cloud,是與Oracle Cloud Infrastructure(OCI)合作的云服務。用戶可以租用DGX Cloud的月租為36999美元起。

AI工廠,制造智能

除了算力以外,英偉達還想要通過云服務,把制造大模型的能力交給更多的用戶。

黃仁勛帶來的另一項關于云的重磅發(fā)布是NVIDIA AI Foundations,旨在為用戶提供定制化的LLM和生成式AI解決方案。該服務包括語言模型NEMO、視覺模型PICASSO和生物學模型BIONEMO。

AI的決定性時刻 英偉達“贏麻了”

其中,NEMO是用于自然語言文本的生成式模型,可以提供80億、430億、5300億參數(shù)的模型,且會定期更新額外的訓練數(shù)據(jù),可以幫助企業(yè)為客服、企業(yè)搜索、聊天機器人、市場分析等場景定制生產(chǎn)生成式AI模型。

PICASSO則用于制作視覺模型,可以用于訓練包括圖像、視頻和3D應用的生成式AI模型。PICASSO可以通過高文本提示和元數(shù)據(jù)用DGX Cloud上的模型創(chuàng)造AI模型。目前英偉達已經(jīng)與Shutterstock合作,開發(fā)了Edify-3D生成式AI模型。

本次GTC英偉達還著重關注生物制藥領域。BIONEMO是專門為用戶提供創(chuàng)建、微調、提供自定義模型的平臺,包括AlphaFold、ESMFold、OpenFold等蛋白質預測模型。生物圈的熱門方向是利用生成式AI發(fā)現(xiàn)疾病靶因、設計新分子或蛋白類藥物等。

此外,英偉達還與Adobe合作,將生成式AI融入營銷人員和創(chuàng)意人士的日常工作流,并開展了對于藝術家版權保護的工作。

寫在最后

有人將GPU在深度學習方面的成功比作是中了技術的彩票,但黃仁勛并不這么認為。他曾多次表示自己在10年前就已經(jīng)看到了AI行業(yè)的發(fā)展?jié)摿?,以及GPU對AI的決定性作用。英偉達正是看好這點,才孤注一擲地投入力量開發(fā)更適合AI的GPU產(chǎn)品。

OpenAI在2018年推出的GPT-1,只有1.2億參數(shù)量,而最后一個公布了參數(shù)量的GPT-3則有1750億,雖然有一些專家認為ChatGPT和GPT-4的參數(shù)量有可能更小,但業(yè)界多數(shù)的聲音認為,更強大的模型就以為這更大的參數(shù)規(guī)模,且要消耗更多的算力。

OpenAI已公布的信息顯示,在訓練上一代的GPT-3時,使用了數(shù)千個NVIDIA V100 GPU。

調研機構TrendForce在一份報告中提到,GPT-3訓練時大概用到了20000個NVIDIA A100 GPU左右的算力,而ChatGPT商業(yè)化后所需的GPU數(shù)量將達到30000個以上。

某AI芯片專家告訴虎嗅,目前OpenAI公布的技術細節(jié)不多,前期的訓練又都是在英偉達的顯卡上做的?!斑@給了英偉達更多針對Transformer的GPU實驗數(shù)據(jù),從一定程度上造成了英偉達對ChatGPT和GPT-4的技術壟斷,從市場競爭的角度說來說,對其他AI芯片很不利。”

事實上,谷歌此前曾推出過針對TenserFlow的TPU產(chǎn)品,然而,英偉達此次發(fā)布的GPU推理平臺針對時下火熱的GPT大模型,進行了Transformer架構優(yōu)化,則似乎又領先了谷歌一步。




關鍵詞: AI 英偉達

評論


相關推薦

技術專區(qū)

關閉