新聞中心

EEPW首頁 > 業(yè)界動態(tài) > 引領人工智能發(fā)展:英特爾的獨家方法論

引領人工智能發(fā)展:英特爾的獨家方法論

—— 英特爾是領先的且更有能力引領人工智能應用時代的公司
作者: 時間:2022-02-15 來源:電子產(chǎn)品世界 收藏


本文引用地址:http://butianyuan.cn/article/202202/431293.htm

內(nèi)容摘要

●   人工智能是增長最快的計算工作負載,其復雜性也在不斷增長,對計算、功率和帶寬的要求也越來越高。

●   我們處于一個轉折點:人工智能正在逐漸突破數(shù)據(jù)中心,隨著人工智能應用時代的到來,人工智能的未來更在數(shù)據(jù)中心之外。

●   英特爾以獨家方法論推動人工智能從云到端再到邊緣的發(fā)展。

●   英特爾的人工智能策略是通過降低用戶的進入門檻加速人工智能普及?;谟⑻貭?至強?處理器和英特爾強大的產(chǎn)品組合及開放的軟件生態(tài)系統(tǒng),我們不僅能夠引領人工智能的發(fā)展,也可以深入影響更廣泛的行業(yè)趨勢,讓每個人都可以更便捷地使用人工智能。

1644895237383627.jpg

Sandra Rivera英特爾公司執(zhí)行副總裁兼數(shù)據(jù)中心與人工智能事業(yè)部總經(jīng)理

人工智能(AI)的核心是使機器識別模式并據(jù)此做出準確預測的能力。而隨著AI模型持續(xù)變得更加精妙和復雜,對更多計算、內(nèi)存、帶寬和功率的需求也與日俱增。

AI是增長最快的計算工作負載,也是英特爾認為將對世界產(chǎn)生變革性影響的四大超級技術力量之一。盡管它誕生于數(shù)據(jù)中心,但我相信AI的未來在數(shù)據(jù)中心之外。AI在客戶端和邊緣的應用時代已經(jīng)來臨,為了讓AI從云端擴展到邊緣,社區(qū)需要一種更加開放和整體的解決方案來加速并簡化整個數(shù)據(jù)建模和部署管道。我們的策略是復制公司歷史上為其他重大技術轉型所采取的措施:向更多客戶開放,加速AI的普及化并推動更大規(guī)模的應用。

在全球范圍內(nèi),英特爾是為數(shù)不多的能夠更好地引領世界進入AI下一個時代的公司。基于我們強大的生態(tài)系統(tǒng)和開放式軟件,以及至關重要的CPU、GPU、ASIC等架構能夠滿足無數(shù)AI使用場景的特定需求,這將使我們能夠引領市場發(fā)展并為無處不在的開放式AI打下堅實基礎。

一系列具備AI特性的領先架構

提及AI,許多人立刻會聯(lián)想到深度學習訓練和顯卡性能。由于訓練往往是大規(guī)模并行的,因此顯卡得到了很多關注,但這只是AI的一部分。大部分AI實踐中的解決方案會包含經(jīng)典機器學習算法和中低復雜度的深度學習模型的組合,而這些功能都已經(jīng)被集成在至強等現(xiàn)代CPU內(nèi)。

1644895266369093.png

目前,AI數(shù)據(jù)流水線主要在至強處理器上運行。通過內(nèi)置加速和優(yōu)化軟件,我們能夠讓至強處理器運行得更快?;诖?,我們一方面通過Sapphire Rapids,將AI的總體性能比上一代產(chǎn)品提高最多30倍;同時,我們還通過將更多AI工作負載引入至強處理器以減少對獨立加速器的需求,從而進一步提高至強處理器的產(chǎn)品競爭力。對于諸如至強等英特爾產(chǎn)品而言,AI功能和優(yōu)化并不是一個新概念。因此,我們計劃擴展這種方法,將AI融入我們交付到數(shù)據(jù)中心、客戶端、邊緣、顯卡等諸多領域的每個產(chǎn)品中。

對于那些真正在GPU上表現(xiàn)最佳的深度學習訓練,我們希望客戶能夠自由選擇最適合其AI工作負載的計算。現(xiàn)階段的GPU是專有且封閉的,但我們有一款針對特定領域的Habana Gaudi AI處理器,和一款專為高性能計算打造的Ponte Vecchio顯卡,它們將基于開放的行業(yè)標準。我們對Gaudi目前取得的進展感到十分高興,AWS在2021年第四季度宣布全面推出基于Habana Gaudi的DL1實例,其性價比較基于顯卡的現(xiàn)有實例高40%,并在早期Gaudi使用測試中表現(xiàn)優(yōu)異。

打造成熟的生態(tài)系統(tǒng)吸引更多客戶

特定的模型、算法和要求會因使用場景和行業(yè)而變化。例如,一家自動駕駛汽車公司需要解決感知(使用物體檢測、定位和分類)、高清地圖和路線規(guī)劃等問題,并采取需要適應動態(tài)環(huán)境的行動。此外,技術支持軟件的聊天機器人也需要了解特定公司和行業(yè)的技術術語,才能準確地回答相關問題。同理,對AI軟硬件需求也因客戶、細分市場、工作負載和設計點而異。設備端、嵌入式和客戶端AI系統(tǒng)需要在功耗和散熱受限條件下實現(xiàn)低延遲推理。人們也越來越需要云中開發(fā)的AI具有邊緣感知能力,以便云中開發(fā)的解決方案可以部署在邊緣,反之亦然。

所有這些因素都在推動從數(shù)據(jù)中心到網(wǎng)絡再到邊緣的全面創(chuàng)新,并影響諸如高帶寬和大容量內(nèi)存、快速互連和智能軟件在內(nèi)的系統(tǒng)級硬件架構。

1644895294662146.png

端到端AI流水線中最大的增長點在于模型部署和AI推理階段。如今,超過70%的AI推理在至強處理器上運行,其中一個增長最快的AI推理使用場景是智能邊緣,而至強已在此領域深耕多年。

在過去的八個月中,我一直在與主要客戶保持密切溝通,以更深入了解他們的需求和工作負載。這些交流不僅讓我們深入了解到如云服務供應商之類的有較強影響力客戶的需求,也向我們展示了戰(zhàn)略合作伙伴如何幫助我們了解我們自身產(chǎn)品組合所應用的關鍵領域。現(xiàn)階段,有數(shù)以萬計的云實例在英特爾處理器上運行,而且它的增長速度比任何其他架構都快。與此同時,針對x86架構編寫的代碼有數(shù)千億行,整個行業(yè)也已經(jīng)安裝了數(shù)億顆至強處理器。因此,英特爾具備得天獨厚的優(yōu)勢,不僅可以通過行業(yè)標準橫向推動行業(yè)發(fā)展,亦能在需求更加專業(yè)的自動化和醫(yī)療等領域縱向推動行業(yè)發(fā)展。

面向AI開發(fā)者的開放軟件堆棧

硬件只是解決方案的一部分,因此我們在AI策略上始終秉持“軟件優(yōu)先”的理念。其中,“軟件優(yōu)先”包括安全的AI軟件組件,即讓用戶能夠利用至強處理器的獨特軟件和安全功能,如通過英特爾?軟件防護擴展(英特爾? SGX)進行機密計算,保護使用中的關鍵數(shù)據(jù)和軟件。英特爾?SGX是業(yè)界第一個也是部署最多的基于硬件的數(shù)據(jù)中心可信執(zhí)行環(huán)境,在此基礎之上,我們的至強產(chǎn)品路線圖也涵蓋更多機密計算技術,這也將夯實我們的技術領先性。

我們花費數(shù)年時間為CPU優(yōu)化最流行的開源框架和函數(shù)庫,而且我們擁有基于開放標準開發(fā)的最廣泛的特定領域加速器組合,使代碼更容易移植且避免被鎖定。此外,為增強技術領先性并持續(xù)推動創(chuàng)新,我們持續(xù)深耕技術,希望能夠打造開放式AI,以涵蓋從云和數(shù)據(jù)中心到客戶端、邊緣和更多領域。

盡管在AI框架中默認啟用英特爾優(yōu)化對于推動大規(guī)模芯片應用至關重要,但我們?nèi)匀恍枰獫M足各類AI開發(fā)者的需求,如從事軟件堆棧底部工作的框架開發(fā)者、在堆棧較高位置工作的低代碼或無代碼主題專家,以及部署、運行、訓練和維護AI模型(MLOps)的所有工程和運營人員。盡管他們的角色迥然不同,但AI工作流程的每個階段都有共同的目標,即以最低的成本和風險快速從概念擴展到現(xiàn)實世界,這也意味著他們需要選擇以及基于易于部署和維護的通用框架的開放解決方案。

基于此,我們已經(jīng)開發(fā)了BigDL和OpenVino?。其中,BigDL支持在現(xiàn)有大數(shù)據(jù)基礎設施上進行大規(guī)模機器學習;而通過數(shù)百個提前訓練的模型,OpenVino?可以加速并簡化推理在許多不同硬件上的部署。通過一致的標準和API,為從事底層AI堆棧工作的開發(fā)者提供可組合或優(yōu)化的構建塊,以及為低代碼開發(fā)者提供優(yōu)化和產(chǎn)品化的工具和套件,英特爾助力AI開發(fā)者茁壯成長。我們持續(xù)深耕AI加速器和安全性,這將讓我們能夠使這些關鍵計算元素在所有客戶、細分市場和產(chǎn)品中廣泛存在。

英特爾推動AI Everywhere

現(xiàn)階段AI已經(jīng)在深刻變革各行各業(yè),未來它也有望改善地球上每個人的生活,但前提是它能夠被更容易地大規(guī)模部署。我們認為,降低AI的進入門檻需要正確的AI技術集合。經(jīng)過實踐,我們驗證了一個成功的模式,以加速AI創(chuàng)新的下一個時代:通過開源工作幫助定義開發(fā)環(huán)境,我們將能夠開發(fā)和影響客戶的解決方案,從而影響整個行業(yè)。我們預測,到2026年,英特爾AI邏輯芯片的市場規(guī)模將超過400億美元。我們正以強大的實力抓住這個機會,我對未來充滿信心。



關鍵詞:

評論


相關推薦

技術專區(qū)

關閉