首頁  資訊  商機(jī)   下載  拆解   高校  招聘   雜志  會展  EETV  百科   問答  電路圖  工程師手冊   Datasheet  100例   活動中心  E周刊閱讀   樣片申請
EEPW首頁 >> 主題列表 >> npu

智能無處不在:安謀科技“周易”NPU開啟端側(cè)AI新時代

  • 在科技之光的照耀下,大模型從云端的殿堂飄然而至終端的舞臺。這一歷史性的跨越,不僅賦予了數(shù)據(jù)處理以迅捷之翼,更將智能體驗(yàn)推向了前所未有的高度。終端上的大模型以靈動的姿態(tài),即時捕捉并回應(yīng)著每一個細(xì)微的需求,將AI的觸角延伸至世界的每一個角落。近日,在EEVIA主辦的第12屆中國硬科技產(chǎn)業(yè)鏈創(chuàng)新趨勢峰會暨百家媒體論壇上,安謀科技產(chǎn)品總監(jiān)鮑敏祺發(fā)表了精彩的主題演講《端側(cè)AI應(yīng)用芯機(jī)遇,NPU加速終端算力升級》。他深入剖析了端側(cè)AI發(fā)展的廣闊前景,并詳細(xì)介紹了安謀科技自研NPU的最新進(jìn)展。端側(cè)AI正在崛起AIGC大
  • 關(guān)鍵字: 安謀科技  周易  NPU  端側(cè)AI  

MCX N系列NPU智能驅(qū)動AI咖啡機(jī),重塑咖啡研磨新境界!

  • MCX N系列NPU, 作為先進(jìn)的人工智能處理器,以其強(qiáng)大的計算能力和高效的算法優(yōu)化,不僅能夠處理復(fù)雜的圖像識別任務(wù),還能在咖啡研磨過程中實(shí)現(xiàn)精準(zhǔn)控制,確保每一??Х榷苟寄艿玫角〉胶锰幍奶幚?。為AI咖啡機(jī)注入了前所未有的智能動力!先說結(jié)論,利用150MHz MCX N的NPU去推理咖啡豆烘焙程度(39mS)比用400MHz的M7內(nèi)核推理(109mS)快了3倍!作為一名“咖市”的“MCU系統(tǒng)與應(yīng)用工程師”一直為研磨咖啡豆的顆粒度而感到苦惱,每次換豆都要浪費(fèi)2次18克豆子去實(shí)現(xiàn)“18克豆,10bar,30秒內(nèi)
  • 關(guān)鍵字: NPU  AI咖啡機(jī)  深度學(xué)習(xí)  

Ceva擴(kuò)展智能邊緣IP領(lǐng)導(dǎo)地位增添用于AIoT設(shè)備的全新TinyML優(yōu)化NPU

  • ●? ?小巧的Ceva-NeuPro-Nano NPU帶來了超低功耗與最佳性能的優(yōu)化平衡,可在消費(fèi)、工業(yè)和通用 AIoT 產(chǎn)品中高效執(zhí)行 TinyML 工作負(fù)載●? ?用于Ceva-NeuPro NPU系列的Ceva-NeuPro Studio完善了AI SDK,支持包括TensorFlow Lite for Microcontrollers和 microTVM的開放式 AI 框架,可加快開發(fā) TinyML 應(yīng)用●? ?Ceva憑借在物聯(lián)網(wǎng)連接方
  • 關(guān)鍵字: Ceva  智能邊緣IP  TinyML  NPU  

NPU成為邊緣智能新思路

  • 在人工智能(AI)技術(shù)日新月異的今天,從云端到邊緣的計算需求不斷攀升,為各行各業(yè)帶來了前所未有的變革機(jī)遇。作為這一領(lǐng)域的領(lǐng)軍者,Arm 公司憑借其卓越的節(jié)能技術(shù)和從云到邊緣的廣泛布局,正逐步構(gòu)建著未來AI生態(tài)的基礎(chǔ)。其中,Arm Ethos U85 NPU(神經(jīng)網(wǎng)絡(luò)處理器)的推出,更是為邊緣智能的發(fā)展注入了強(qiáng)勁動力,開啟了AI無處不在的新篇章。隨著物聯(lián)網(wǎng)(IoT)設(shè)備的普及和大數(shù)據(jù)的爆炸式增長,邊緣計算逐漸成為AI應(yīng)用的重要場景。邊緣計算能夠在數(shù)據(jù)源附近進(jìn)行數(shù)據(jù)處理和分析,極大地降低了數(shù)據(jù)傳輸?shù)难舆t和帶寬
  • 關(guān)鍵字: arm  NPU  邊緣智能  

AI 芯片的未來,未必是 GPU

  • 在人工智能計算架構(gòu)的布局中,CPU 與加速芯片協(xié)同工作的模式已成為一種典型的 AI 部署方案。CPU 扮演基礎(chǔ)算力的提供者角色,而加速芯片則負(fù)責(zé)提升計算性能,助力算法高效執(zhí)行。常見的 AI 加速芯片按其技術(shù)路徑,可劃分為 GPU、FPGA 和 ASIC 三大類別。在這場競爭中,GPU 憑借其獨(dú)特的優(yōu)勢成為主流的 AI 芯片。那么,GPU 是如何在眾多選項(xiàng)中脫穎而出的呢?展望 AI 的未來,GPU 是否仍是唯一解呢?GPU 如何制勝當(dāng)下?AI 與 GPU 之間存在著密切的關(guān)系。強(qiáng)大的并行計算能力AI 大模型
  • 關(guān)鍵字: GPU  TPU  NPU  Cobalt  MTIA  

奕斯偉計算公司在最新的RISC-V邊緣計算SoC中將SiFive CPU、Imagination GPU和自有NPU結(jié)合集成

  • 今天,北京奕斯偉計算技術(shù)股份有限公司(以下簡稱“奕斯偉計算”)與Imagination Technologies和SiFive聯(lián)合宣布,奕斯偉EIC77系列SoC中的圖形和計算加速功能由Imagination的GPU IP、SiFive的CPU IP,以及奕斯偉計算的專有神經(jīng)網(wǎng)絡(luò)單元NPU無縫集成而成。“AI時代,面對千行百業(yè)被重塑的巨大機(jī)遇,奕斯偉計算正在構(gòu)建基于RISC-V的智能計算未來,”奕斯偉計算副董事長王波表示,“算力是AI的核心驅(qū)動力,我們已推出EIC77系列SoC,以滿足客戶更多應(yīng)用場景的不
  • 關(guān)鍵字: 奕斯偉  RISC-V  SiFive  CPU  Imagination  GPU  NPU  

AI PC 仍等待“殺手锏”應(yīng)用,IDC 預(yù)估 2028 年其占比將達(dá) 2/3

  • IT之家 6 月 5 日消息,市場調(diào)查機(jī)構(gòu) IDC 公布的最新報告,盡管全球經(jīng)濟(jì)有所改善,且配備 NPU 的 AI PC 開始涌現(xiàn),但 2024 年全球 PC 市場依然保持穩(wěn)定,預(yù)估出貨量為 2.602 億臺。教育市場2024 年教育市場 PC 出貨量預(yù)估為 2960 萬臺,很多機(jī)構(gòu)在疫情期間購買的 PC 也到了換機(jī)時間,不過換機(jī)潮不會像疫情期間一樣出現(xiàn)高峰期,而是較為平緩過渡。家用市場IDC 預(yù)估 2024 年家用 PC 出貨量下降 1.1%,不過在高通、AMD 和英特爾的推動下,2024 年
  • 關(guān)鍵字: NPU  AI  

Intel AI創(chuàng)新應(yīng)用大賽落幕:CPU+GPU+NPU三位一體開始發(fā)力

  • AI PC方興未艾,而除了CPU、GPU、NPU這樣的基礎(chǔ)硬件,更關(guān)鍵的是應(yīng)用軟件與場景的生態(tài)落地。只有從應(yīng)用上真正改變?nèi)藗兊娜粘9ぷ?、生活體驗(yàn),帶來真正的便利,AI PC才能取得成功。作為行業(yè)執(zhí)牛耳者,Intel不但率先倡導(dǎo)了AI PC的概念,帶來了史上變革最大的酷睿Ultra處理器、大量的AI PC筆記本,領(lǐng)導(dǎo)PC全面進(jìn)入AI時代,更在生態(tài)拓展方面不遺余力地投入。按照Intel的宏圖大愿,AI PC 2024年的出貨量就會有大約4000萬臺,而到了2025,這一市場規(guī)模將超過1億臺,走進(jìn)千家萬戶。為了
  • 關(guān)鍵字: Intel  CPU  GPU  NPU  

Arm:致力于成為邊緣AI發(fā)展與創(chuàng)新的堅實(shí)基石

  • 邊緣智能是人工智能的一種部署形式,無論中央人工智能,還是邊緣智能,都需要算力支撐。而集中和分布式計算呈現(xiàn)出相互促進(jìn)和交替發(fā)展的趨勢。作為移動處理器領(lǐng)域市場的引領(lǐng)者,Arm 的各類處理器內(nèi)核在邊緣端的MCU、NPU 和MPU 等領(lǐng)域引領(lǐng)著技術(shù)發(fā)展的未來。Arm物聯(lián)網(wǎng)事業(yè)部業(yè)務(wù)拓展副總裁 馬健談到邊緣智能,Arm 物聯(lián)網(wǎng)事業(yè)部業(yè)務(wù)拓展副總裁馬健表示,伴隨著Transformer與大模型的發(fā)展,AI模型的普適性、多模態(tài)支持,以及模型微調(diào)效率都有了質(zhì)的突破,加上低功耗的AI 加速器和專用芯片被集成到終端和邊緣設(shè)備
  • 關(guān)鍵字: 202405  Arm  邊緣AI  邊緣智能  NPU  

愛芯通元NPU完成Llama 3和Phi-3大模型適配

  • 人工智能芯片研發(fā)及基礎(chǔ)算力平臺公司愛芯元智宣布,近日,Meta、Microsoft相繼發(fā)布具有里程碑意義的Llama 3系列和Phi-3系列模型。為了進(jìn)一步給開發(fā)者提供更多嘗鮮,愛芯元智的NPU工具鏈團(tuán)隊迅速響應(yīng),已基于AX650N平臺完成 Llama 3 8B和Phi-3-mini模型適配。Llama 3上周五,Meta發(fā)布了Meta Llama 3系列語言模型(LLM),具體包括一個8B模型和一個70B模型在測試基準(zhǔn)中,Llama 3模型的表現(xiàn)相當(dāng)出色,在實(shí)用性和安全性評估中,與那些市面上流行的閉源模
  • 關(guān)鍵字: 愛芯通元  NPU  Llama 3  Phi-3  大模型  

MCX N系列微處理器之NPU使用方法簡介

  • MCX N系列是高性能、低功耗微控制器,配備智能外設(shè)和加速器,可提供多任務(wù)功能和高能效。部分MCX N系列產(chǎn)品包含恩智浦面向機(jī)器學(xué)習(xí)應(yīng)用的eIQ? Neutron神經(jīng)處理單元(NPU)。低功耗高速緩存增強(qiáng)了系統(tǒng)性能,雙塊Flash存儲器和帶ECC檢測的RAM支持系統(tǒng)功能安全,提供了額外的保護(hù)和保證。這些安全MCU包含恩智浦EdgeLock?安全區(qū)域Core Profile,根據(jù)設(shè)計安全方法構(gòu)建,提供具有不可變信任根和硬件加速加密的安全啟動。MCX N系列微型處理器:MCXN94xMCXN54x基
  • 關(guān)鍵字: NXP  MCX  NPU  微處理器  

MCU+NPU,Arm引領(lǐng)物聯(lián)網(wǎng)全面智能化時代

  • 人工智能作為過去兩年以及未來幾年注定爆火熱點(diǎn)應(yīng)用,始終缺乏足夠的落地方案確保盈利能力,即使目前最火爆的生成式AI(AIGC)依然屬于燒錢階段。因此,支撐AI未來商業(yè)價值的,并不只是人們看到的大模型和AIGC,還需要更多終端節(jié)點(diǎn)對人工智能應(yīng)用的支持。 算力成本是人工智能應(yīng)用中不可回避的話題,畢竟從算力開銷上來說,單純把所有計算都放在云端不僅帶來的是龐大的算力構(gòu)建費(fèi)用,更是因?yàn)榇罅繑?shù)據(jù)的反復(fù)傳輸而帶來能效方面的開銷。因此,將算力資源合理的分配到云端和邊緣側(cè)可以更好地發(fā)揮不同節(jié)點(diǎn)的處理資源,將復(fù)雜AI推理和訓(xùn)練
  • 關(guān)鍵字: MCU  NPU  Arm  物聯(lián)網(wǎng)  AI  

AI PC一觸即發(fā),存儲器、NPU等大放異彩!

  • AI浪潮正持續(xù)改變各行各業(yè),此前歷經(jīng)下行周期的PC市場也開始迎來新的機(jī)會。今年以來,無論是美國消費(fèi)電子展(CES)還是巴塞羅那世界移動通信大會(MWC),AI PC都成為了當(dāng)之無愧的焦點(diǎn),包括英特爾、AMD、英偉達(dá)等芯片大廠,以及聯(lián)想、戴爾、宏碁、華碩、榮耀等下游廠商紛紛推出相關(guān)產(chǎn)品,布局AI PC。業(yè)界直言,2024年或是AI PC元年,這一風(fēng)口下,半導(dǎo)體領(lǐng)域NPU以及存儲器等有望持續(xù)受益。一 AI PC一觸即發(fā),半導(dǎo)體大廠瞄準(zhǔn)NPUChatGPT的橫空出世,讓人見識到了AI大模型的威力,隨后,
  • 關(guān)鍵字: AI PC  存儲器  NPU  

NPU是什么?為何它是開啟終端側(cè)生成式AI的關(guān)鍵?

  • 生成式AI變革已經(jīng)到來。隨著生成式AI用例需求在有著多樣化要求和計算需求的垂直領(lǐng)域不斷增加,我們顯然需要專為AI定制設(shè)計的全新計算架構(gòu)。這首先需要一個面向生成式AI全新設(shè)計的神經(jīng)網(wǎng)絡(luò)處理器(NPU),同時要利用異構(gòu)處理器組合,比如中央處理器(CPU)和圖形處理器(GPU)。通過結(jié)合NPU使用合適的處理器,異構(gòu)計算能夠?qū)崿F(xiàn)最佳應(yīng)用性能、能效和電池續(xù)航,賦能全新增強(qiáng)的生成式AI體驗(yàn)。正如在工具箱中選擇合適的工具一樣,選擇合適的處理器取決于諸多因素,將增強(qiáng)生成式AI體驗(yàn)。異構(gòu)計算的重要性生成式AI的多樣化要求和
  • 關(guān)鍵字: NPU  AI  計算架構(gòu)  

采用芯原NPU IP的AI類芯片已在全球出貨超過1億顆

  • 芯原股份近日宣布集成了芯原神經(jīng)網(wǎng)絡(luò)處理器(NPU)IP的人工智能(AI)類芯片已在全球范圍內(nèi)出貨超過1億顆,主要應(yīng)用于物聯(lián)網(wǎng)、可穿戴設(shè)備、智慧電視、智慧家居、安防監(jiān)控、服務(wù)器、汽車電子、智能手機(jī)、平板電腦、智慧醫(yī)療等10個市場領(lǐng)域。在過去七年里,芯原在嵌入式AI/NPU領(lǐng)域全球領(lǐng)先,其NPU IP已被72家客戶用于上述市場領(lǐng)域的128款A(yù)I芯片中。芯原的NPU IP是一款高性能的AI處理器IP,采用了低功耗、可編程和可擴(kuò)展的架構(gòu)設(shè)計。它可以靈活配置,以滿足客戶對芯片尺寸和功耗的不同要求,使之成為具有成本效
  • 關(guān)鍵字: 芯原  NPU IP  AI芯片  
共52條 1/4 1 2 3 4 »
關(guān)于我們 - 廣告服務(wù) - 企業(yè)會員服務(wù) - 網(wǎng)站地圖 - 聯(lián)系我們 - 征稿 - 友情鏈接 - 手機(jī)EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
備案 京ICP備12027778號-2 北京市公安局備案:1101082052    京公網(wǎng)安備11010802012473