Cadence推出面向硅設(shè)計(jì)的全新Neo NPU IP和NeuroWeave SDK,加速設(shè)備端和邊緣AI性能及效率
● Neo NPU可有效地處理來自任何主處理器的負(fù)載,單核可從 8 GOPS 擴(kuò)展到 80 TOPS,多核可擴(kuò)展到數(shù)百 TOPS
● AI IP可提供業(yè)界領(lǐng)先的 AI 性能和能效比,實(shí)現(xiàn)最佳 PPA 結(jié)果和性價(jià)比
● 面向廣泛的設(shè)備端和邊緣應(yīng)用,包括智能傳感器、物聯(lián)網(wǎng)、音頻/視覺、耳戴/可穿戴設(shè)備、移動(dòng)視覺/語音 AI、AR/VR 和 ADAS
● 全面、通用的 NeuroWeave SDK 可通過廣泛的 Cadence AI 和 Tensilica IP 解決方案滿足所有目標(biāo)市場(chǎng)的需求
楷登電子(美國(guó) Cadence 公司)近日宣布,推出新一代AI IP和軟件工具,以滿足市場(chǎng)對(duì)設(shè)備端和邊緣 AI 處理不斷增長(zhǎng)的需求。新推出的 Cadence? Neo? Neural Processing Units(NPU)擴(kuò)展能力很強(qiáng),可為低功耗應(yīng)用提供廣泛的 AI 功能,將 AI SoC 的效率和性能提升到新的水平。Neo NPU 單核配置的性能高達(dá) 80 TOPS,支持經(jīng)典 AI 模型和最新的生成式 AI 模型,配有簡(jiǎn)單易用的可擴(kuò)展 AMBA? AXI 互聯(lián),可處理來自任何處理器的 AI/ML 負(fù)載,包括應(yīng)用處理器、通用型微處理器和 DSP。NeuroWeave? Software Development Kit(SDK)是對(duì) AI 硬件的補(bǔ)充,為開發(fā)人員提供了一站式 AI 軟件解決方案,涵蓋 Cadence AI 和 Tensilica? IP 產(chǎn)品,用于實(shí)現(xiàn)“零代碼”AI 開發(fā)。
“近期 AI 的關(guān)注點(diǎn)都在云上,但傳統(tǒng) AI 和生成式 AI 在邊緣和設(shè)備端的應(yīng)用也很有前景,”TECHnalysis Research 總裁兼首席分析師 Bob O’Donnell 說,“從消費(fèi)電子到手機(jī)和汽車,再到企業(yè),我們迎來了便捷智能設(shè)備的時(shí)代。為了實(shí)現(xiàn)這些目標(biāo),芯片設(shè)計(jì)師和設(shè)備制造商需要借助靈活、可擴(kuò)展的軟硬件聯(lián)合解決方案,為功耗和計(jì)算性能需求各異的應(yīng)用提供 AI 功能——與此同時(shí)還要能夠使用熟悉的工具來完成。經(jīng)過優(yōu)化的新芯片架構(gòu)要能夠加速機(jī)器學(xué)習(xí)模型和軟件工具,并與熱門的 AI 開發(fā)框架無縫集成,這一點(diǎn)非常關(guān)鍵?!?/p>
靈活的 Neo NPU 非常適合對(duì)功耗非常敏感的設(shè)備以及具有可配置架構(gòu)的高性能系統(tǒng),使 SoC 架構(gòu)師能夠在智能傳感器、物聯(lián)網(wǎng)和移動(dòng)設(shè)備、攝像頭、耳戴/可穿戴設(shè)備、個(gè)人電腦、AR/VR 頭顯和高級(jí)駕駛輔助系統(tǒng)(ADAS)等各種產(chǎn)品中集成最佳的人工智能推理解決方案。新增的硬件和性能增強(qiáng)功能以及關(guān)鍵特性/功能包括:
● 可擴(kuò)展性:單核解決方案可從 8 GOPS 擴(kuò)展到 80 TOPS,多核可進(jìn)一步擴(kuò)展到數(shù)百 TOPS。
● 廣泛的配置范圍:每個(gè)周期支持 256 到 32K 個(gè) MAC,允許 SoC 架構(gòu)師優(yōu)化其嵌入式 AI 解決方案,以滿足功耗、性能和面積(PPA)權(quán)衡的要求。
● 集成支持各種網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)和運(yùn)營(yíng)商:可高效運(yùn)行來自任何主處理器(包括 DSP、通用型微控制器或應(yīng)用處理器)的推理任務(wù),從而顯著提高系統(tǒng)性能,降低功耗。
● 易于部署:加快產(chǎn)品上市,滿足日新月異的新一代視覺、音頻、雷達(dá)、自然語言處理(NLP)和生成式 AI 流水線的需求。
● 靈活性:支持 Int4、Int8、Int16 和 FP16 數(shù)據(jù)類型,涵蓋構(gòu)成 CNN、RNN 和基于 Transformer 的網(wǎng)絡(luò)基礎(chǔ)的各種操作,可靈活權(quán)衡神經(jīng)網(wǎng)絡(luò)的性能和準(zhǔn)確性。
● 高性能和高效率:與第一代 Cadence AI IP 相比,性能最多可提高 20 倍,每面積每秒推理次數(shù)(IPS/mm2)提高 2-5 倍,每瓦每秒推理次數(shù)(IPS/W)提高 5-10 倍。
軟件是任何 AI 解決方案的關(guān)鍵組成部分,為此 Cadence 還升級(jí)了通用軟件工具鏈,推出了 NeuroWeave SDK。NeuroWeave SDK 為客戶提供跨 Tensilica DSP、控制器和 Neo NPU 的統(tǒng)一、可擴(kuò)展、可配置的軟件堆棧,以滿足所有目標(biāo)應(yīng)用的需要,簡(jiǎn)化產(chǎn)品開發(fā),并能隨著設(shè)計(jì)要求的變化而輕松遷移。NeuroWeave SDK 支持許多行業(yè)標(biāo)準(zhǔn)的特定領(lǐng)域機(jī)器學(xué)習(xí)框架,包括用于自動(dòng)端到端代碼生成的 TensorFlow、ONNX、PyTorch、Caffe2、TensorFlow Lite、MXNet、JAX 等;Android 神經(jīng)網(wǎng)絡(luò)編譯器;用于實(shí)時(shí)執(zhí)行的 TF Lite Delegates;以及用于微控制器級(jí)設(shè)備的 TensorFlow Lite Micro。
“二十年來,處理器出貨量超過 600 億個(gè),與此同時(shí),行業(yè)領(lǐng)先的 SoC 客戶一直依靠 Cadence 處理器 IP 來設(shè)計(jì)尖端的設(shè)備端 SoC。我們的 Neo NPU 依托了這種專長(zhǎng),讓 AI 處理能力和性能實(shí)現(xiàn)飛躍,”Cadence Tensilica IP 研發(fā)副總裁 David Glasco 說道,“如今的市場(chǎng)格局瞬息萬變,我們必須確??蛻裟軌蚋鶕?jù)獨(dú)特的要求和 KPI 設(shè)計(jì)出卓越的 AI 解決方案,同時(shí)無需擔(dān)心后續(xù)的神經(jīng)網(wǎng)絡(luò)支持問題。為了實(shí)現(xiàn)這一點(diǎn),我們投入了大量的人力物力來開發(fā)新的 AI 硬件平臺(tái)和軟件工具鏈,在性能、功耗和成本方面不斷優(yōu)化,推動(dòng) AI 系統(tǒng)的快速部署。”
“Labforge 在開發(fā) Bottlenose 智能相機(jī)產(chǎn)品線時(shí)使用了一組 Cadence Tensilica DSP,為功耗敏感的邊緣應(yīng)用提供一流的 AI 處理性能,”Labforge, Inc. 首席執(zhí)行官 Yassir Rizwan 表示,“Cadence 的 AI 軟件是我們嵌入式低功耗人工智能解決方案不可或缺的一部分,我們期待 Cadence 新推出的 NeuroWeave SDK 能夠提供新的功能和更高的性能。有了端到端編譯器工具鏈流程,我們就能更好地解決自動(dòng)化和機(jī)器人領(lǐng)域的 AI 挑戰(zhàn)性——加快產(chǎn)品上市,充分利用基于生成式 AI 的應(yīng)用需求,開辟通過其他途徑無法實(shí)現(xiàn)的新市場(chǎng)?!?/p>
Neo NPU 和 NeuroWeave SDK 支持 Cadence 的智能系統(tǒng)設(shè)計(jì)(Intelligent System Design?)戰(zhàn)略,旨在通過卓越的 SoC 設(shè)計(jì)實(shí)現(xiàn)普適智能。
可用性
Neo NPU 和 NeuroWeave SDK 預(yù)計(jì)將于 2023 年 12 月全面上市。針對(duì)主要客戶的早期參與計(jì)劃已經(jīng)開始。
評(píng)論