新聞中心

EEPW首頁 > 嵌入式系統(tǒng) > 新品快遞 > 如何在Cortex-M處理器上實現(xiàn)高精度關鍵詞識別

如何在Cortex-M處理器上實現(xiàn)高精度關鍵詞識別

作者: 時間:2018-01-29 來源:電子產品世界 收藏

    

image001.jpg

 

本文引用地址:http://www.butianyuan.cn/article/201801/375072.htm

  我們可以對神經網絡架構進行優(yōu)化,使之適配微控制器的內存和計算限制范圍,并且不會影響精度。我們將在本文中解釋和探討深度可分離卷積神經網絡在  上實現(xiàn)關鍵詞識別的潛力。

  關鍵詞識別 (KWS) 對于在智能設備上實現(xiàn)基于語音的用戶交互十分關鍵,需要實時響應和高精度,才能確保良好的用戶體驗。最近,神經網絡已經成為 KWS 架構的熱門選擇,因為與傳統(tǒng)的語音處理算法相比,神經網絡的精度更勝一籌。

    

image002.jpg

 

  關鍵詞識別神經網絡管道

  由于要保持“永遠在線”,KWS 應用的功耗預算受到很大限制。雖然 KWS 應用也可在專用 DSP 或高性能 CPU 上運行,但更適合在 Arm  微控制器上運行,有助于最大限度地降低成本,Arm  微控制器經常在物聯(lián)網邊緣用于處理其他任務。

  但是,要在基于 Cortex-M 的微控制器上部署基于神經網絡的 KWS,我們面臨著以下挑戰(zhàn):

  1. 有限的內存空間

  典型的 Cortex-M 系統(tǒng)最多提供幾百 KB 的可用內存。這意味著,整個神經網絡模型,包括輸入/輸出、權重和激活,都必須在這個很小的內存范圍內運行。

  2. 有限的計算資源

  由于 KWS 要保持永遠在線,這種實時性要求限制了每次神經網絡推理的總運算數(shù)量。

  以下是適用于 KWS 推理的典型神經網絡架構:

  ? 深度神經網絡 (DNN)

  DNN 是標準的前饋神經網絡,由全連接層和非線性激活層堆疊而成。

  ? 卷積神經網絡 (CNN)

  基于 DNN 的 KWS 的一大主要缺陷是無法為語音功能中的局域關聯(lián)性、時域關聯(lián)性、頻域關聯(lián)性建模。CNN 則可將輸入時域和頻域特征當作圖像處理,并且在上面執(zhí)行 2D 卷積運算,從而發(fā)現(xiàn)這種關聯(lián)性。

  ? 循環(huán)神經網絡 (RNN)

  RNN 在很多序列建模任務中都展現(xiàn)出了出色的性能,特別是在語音識別、語言建模和翻譯中。RNN 不僅能夠發(fā)現(xiàn)輸入信號之間的時域關系,還能使用“門控”機制來捕捉長時依賴關系。

  ? 卷積循環(huán)神經網絡 (CRNN)

  卷積循環(huán)神經網絡是 CNN 和 RNN 的混合,可發(fā)現(xiàn)局部時間/空間關聯(lián)性。CRNN 模型從卷積層開始,然后是 RNN,對信號進行編碼,接下來是密集全連接層。

  ? 深度可分離卷積神經網絡 (DS-CNN)

  最近,深度可分離卷積神經網絡被推薦為標準 3D 卷積運算的高效替代方案,并已用于實現(xiàn)計算機視覺的緊湊網絡架構。

  DS-CNN 首先使用獨立的 2D 濾波,對輸入特征圖中的每個通道進行卷積計算,然后使用點態(tài)卷積(即 1x1),合并縱深維度中的輸出。通過將標準 3D 卷積分解為 2D和后續(xù)的 1D,參數(shù)和運算的數(shù)量得以減少,從而使得更深和更寬的架構成為可能,甚至在資源受限的微控制器器件中也能運行。

  在 Cortex-M 上運行關鍵詞識別時,內存占用和執(zhí)行時間是兩個最重要因素,在設計和優(yōu)化用于該用途的神經網絡時,應該考慮到這兩大因素。以下所示的神經網絡的三組限制分別針對小型、中型和大型 Cortex-M 系統(tǒng),基于典型的 Cortex-M 系統(tǒng)配置。

    

image003.jpg

 

  KWS 模型的神經網絡類別 (NN) 類別,假定每秒 10 次推理和 8 位權重/激活

  要調節(jié)模型,使之不超出微控制器的內存和計算限制范圍,必須執(zhí)行超參數(shù)搜索。下表顯示了神經網絡架構及必須優(yōu)化的相應超參數(shù)。

    

image004.jpg

 

  神經網絡超參數(shù)搜索空間

  首先執(zhí)行特征提取和神經網絡模型超參數(shù)的窮舉搜索,然后執(zhí)行手動選擇以縮小搜索空間,這兩者反復執(zhí)行。下圖總結了適用于每種神經網絡架構的最佳性能模型及相應的內存要求和運算。DS-CNN 架構提供最高的精度,而且需要的內存和計算資源也低得多。

    

image005.jpg

  最佳神經網絡模型中內存與運算/推理的關系

  KWS 應用部署在基于 Cortex-M7 的 STM32F746G-DISCO 開發(fā)板上(如下圖所示),使用包含 8 位權重和 8 位激活的 DNN 模型,KWS 在運行時每秒執(zhí)行 10 次推理。每次推理(包括內存復制、MFCC 特征提取、DNN 執(zhí)行)花費大約 12 毫秒。為了節(jié)省功耗,可讓微控制器在余下時間處于等待中斷 (WFI) 模式。整個 KWS 應用占用大約 70 KB 內存,包括大約 66 KB 用于權重、大約 1 KB 用于激活、大約 2 KB 用于音頻 I/O 和 MFCC 特征。

    

image006.jpg

 

  Cortex-M7 開發(fā)板上的 KWS 部署

  總而言之,Arm Cortex-M 可以在關鍵詞識別應用中達到很高的精度,同時通過調整網絡架構來限制內存和計算需求。DS-CNN 架構提供最高的精度,而且需要的內存和計算資源也低得多。

  代碼、模型定義和預訓練模型可從 github.com/ARM-software 獲取。

  我們全新的機器學習開發(fā)人員網站提供一站式資源庫、詳細產品信息和教程,幫助應對網絡邊緣的機器學習所面臨的挑戰(zhàn)。

  本博客基于白皮書“網絡邊緣:微控制器上的關鍵詞識別”(Hello Edge: Keyword Spotting on Microcontrollers),該白皮書最初發(fā)布在康奈爾大學圖書館網站上。要下載 Arm 白皮書副本,請點擊以下鏈接。

  https://community.arm.com/cfs-file/__key/telligent-evolution-components-attachments/01-2142-00-00-00-01-34-26/Arm_5F00_KeywordSpotting_5F00_Whitepaper.pdf



關鍵詞: Cortex-M 處理器

評論


相關推薦

技術專區(qū)

關閉