新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > MathWorks 宣布 MATLAB 與 NVIDIA TensorRT 集成來加快人工智能應用

MathWorks 宣布 MATLAB 與 NVIDIA TensorRT 集成來加快人工智能應用

作者: 時間:2018-04-12 來源:電子產品世界 收藏

  MathWorks 今日宣布 , 現在可通過 GPU Coder 實現與 NVIDIA TensorRT 集成。這可以幫助工程師和科學家們在  中開發(fā)新的人工智能和深度學習模型,且可確保性能和效率滿足數據中心、嵌入式應用和汽車應用不斷增長的需求。

本文引用地址:http://www.butianyuan.cn/article/201804/378263.htm

   提供了一個完整的工作流程來快速訓練、驗證和部署深度學習模型。工程師可以使用 GPU 資源,而無需額外編程操作,因此可以專注于應用本身而不是性能調優(yōu)。NVIDIA TensorRT 與 GPU Coder 的全新集成使得可以在 MATLAB 中開發(fā)深度學習模型,然后以高吞吐量低延遲的方式部署在 NVIDIA GPU 上運行。內部基準測試顯示,MATLAB 生成的CUDA代碼與 TensorRT 結合,在部署 Alexnet模型進行深度學習推理時,性能比 TensorFlow 高 5 倍;在部署 VGG-16 模型進行深度學習推理時,性能比 TensorFlow 高 1.25 倍。*

  “不斷發(fā)展的圖像、語音、傳感器和物聯網 (IoT) 技術促使團隊以更好的性能和效率研究人工智能解決方案。此外,深度學習模型變得越來越復雜。所有這些都給工程師們帶來了巨大的壓力,” MathWorks 總監(jiān) David Rich 說。“現在,團隊可以使用 MATLAB 訓練深度學習模型,NVIDIA GPU 可以將實時推理部署到從云端到數據中心到嵌入式邊界設備等各種環(huán)境中?!?/p>



關鍵詞: MATLAB MathWorks

評論


相關推薦

技術專區(qū)

關閉