新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 谷歌對(duì)IBM說(shuō):大科技巨頭如何擁抱Nvidia的新硬件和軟件服務(wù)

谷歌對(duì)IBM說(shuō):大科技巨頭如何擁抱Nvidia的新硬件和軟件服務(wù)

作者:EEPW 時(shí)間:2024-03-21 來(lái)源:EEPW 收藏

Nvidia已經(jīng)全力以赴,在圣何塞正在進(jìn)行的GTC大會(huì)上推動(dòng)計(jì)算的邊界。

本文引用地址:http://butianyuan.cn/article/202403/456629.htm

首席執(zhí)行官黃仁勛穿著一件黑色皮夾克,在他的主題演講中向一群聚集在一起的人群(這個(gè)活動(dòng)看起來(lái)更像是一場(chǎng)音樂(lè)會(huì)而不是一場(chǎng)會(huì)議)宣布了備受期待的GB200 Grace Blackwell超級(jí)芯片,承諾為大型語(yǔ)言模型(LLM)推理工作負(fù)載提供多達(dá)30倍的性能提升。他還分享了汽車、機(jī)器人、全息宇宙和醫(yī)療保健領(lǐng)域的一些顯著進(jìn)展,使互聯(lián)網(wǎng)充斥著所有與Nvidia有關(guān)的東西。

然而,GTC永遠(yuǎn)不完整,沒(méi)有行業(yè)合作伙伴關(guān)系。Nvidia分享了如何通過(guò)將其新宣布的人工智能計(jì)算基礎(chǔ)設(shè)施、軟件和服務(wù)納入其技術(shù)棧,與幾家行業(yè)巨頭一起發(fā)展的情況。以下是主要合作伙伴關(guān)系的概述。

AWSNvidia表示,AWS將在EC2實(shí)例上提供其新的Blackwell平臺(tái),該平臺(tái)配備GB200 NVL72,配備72個(gè)Blackwell GPU和36個(gè)Grace CPU。這將使客戶能夠以比以前的Nvidia GPU更快、更大規(guī)模和更低成本的方式構(gòu)建和運(yùn)行多萬(wàn)億參數(shù)LLM的實(shí)時(shí)推理。這兩家公司還宣布,它們將20,736個(gè)GB200超級(jí)芯片帶到Project Ceiba——一個(gè)專門(mén)在AWS上構(gòu)建的AI超級(jí)計(jì)算機(jī)——并與Nvidia NIM推斷微服務(wù)集成的Amazon SageMaker。

與亞馬遜一樣,也宣布將Nvidia的Grace Blackwell平臺(tái)和NIM微服務(wù)引入其云基礎(chǔ)架構(gòu)。該公司還表示,將在Nvidia H100 GPU上為JAX提供支持,這是一個(gè)用于高性能LLM訓(xùn)練的Python本地框架,并通過(guò)Google Kubernetes Engine(GKE)和Google Cloud HPC工具包使部署Nvidia NeMo框架在其平臺(tái)上更加容易。

此外,Vertex AI現(xiàn)在將支持由NVIDIA H100 GPU驅(qū)動(dòng)的Google Cloud A3 VM和由NVIDIA L4 Tensor Core GPU驅(qū)動(dòng)的G2 VM。

微軟微軟還確認(rèn)了將NIM微服務(wù)和Grace Blackwell添加到Azure的計(jì)劃。然而,這項(xiàng)超級(jí)芯片的合作伙伴關(guān)系還包括Nvidia的新Quantum-X800 InfiniBand網(wǎng)絡(luò)平臺(tái)。由薩蒂亞·納德拉領(lǐng)導(dǎo)的公司還宣布,DGX Cloud將與Microsoft Fabric進(jìn)行本地集成,以簡(jiǎn)化自定義AI模型的開(kāi)發(fā),并在Azure Power平臺(tái)上提供新推出的Omniverse Cloud API。在醫(yī)療保健領(lǐng)域,微軟表示Azure將利用Nvidia的Clara微服務(wù)套件和DGX Cloud,幫助醫(yī)療保健提供商、制藥和生物技術(shù)公司以及醫(yī)療設(shè)備開(kāi)發(fā)人員快速在臨床研究和護(hù)理交付方面進(jìn)行創(chuàng)新。

甲骨文甲骨文表示,它計(jì)劃在OCI Supercluster和OCI Compute實(shí)例中利用Grace Blackwell計(jì)算平臺(tái),后者將采用Nvidia GB200超級(jí)芯片和B200張量核心GPU。它還將出現(xiàn)在OCI上的Nvidia DGX Cloud上。除此之外,甲骨文表示,Nvidia NIM和CUDA-X微服務(wù),包括用于RAG推理部署的NeMo Retriever,也將幫助OCI客戶為其生成式人工智能應(yīng)用程序帶來(lái)更多的洞察力和準(zhǔn)確性。

SAPSAP正在與Nvidia合作,將生成式人工智能整合到其云解決方案中,包括最新版本的SAP Datasphere、SAP Business Technology Platform和RISE with SAP。該公司還表示,計(jì)劃使用Nvidia的生成式人工智能鑄造服務(wù)在SAP BTP中構(gòu)建更多的生成式人工智能功能,該服務(wù)包括DGX Cloud AI超級(jí)計(jì)算、Nvidia AI Enterprise軟件和NVIDIA AI Foundation模型。

正在計(jì)劃將其技術(shù)和行業(yè)專業(yè)知識(shí)與Nvidia的AI企業(yè)軟件堆棧相結(jié)合,包括新的NIM微服務(wù)和Omniverse技術(shù),以幫助客戶解決復(fù)雜的業(yè)務(wù)挑戰(zhàn)。表示,這將加速客戶的AI工作流程,增強(qiáng)用例到模型的優(yōu)化,并開(kāi)發(fā)針對(duì)業(yè)務(wù)和行業(yè)的特定AI用例。該公司已經(jīng)在使用Isaac Sim和Omniverse構(gòu)建并交付數(shù)字孿生應(yīng)用程序,用于供應(yīng)鏈和制造業(yè)。

至于Snowflake,數(shù)據(jù)云公司Snowflake擴(kuò)展了其先前與Nvidia宣布的合作伙伴關(guān)系,以與NeMo Retriever集成。這種生成式AI微服務(wù)將自定義LLMs連接到企業(yè)數(shù)據(jù),并允許公司的客戶通過(guò)Snowflake Cortex構(gòu)建的聊天機(jī)器人應(yīng)用程序的性能和可伸縮性。此合作還包括Nvidia TensorRT軟件,該軟件為深度學(xué)習(xí)推斷應(yīng)用程序提供低延遲和高吞吐量。

除了Snowflake之外,數(shù)據(jù)平臺(tái)提供商Box、Dataloop、Cloudera、Cohesity、Datastax和NetApp還宣布計(jì)劃使用Nvidia微服務(wù),包括全新的NIM技術(shù),以幫助客戶優(yōu)化RAG管道并將其專有數(shù)據(jù)集成到生成式AI應(yīng)用程序中。



關(guān)鍵詞: 英偉達(dá) 谷歌 IBM

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)