EEPW首頁(yè) >>
主題列表 >>
dnn
dnn 文章 進(jìn)入dnn技術(shù)社區(qū)
基于自適應(yīng)軟掩模的語(yǔ)音混合特征增強(qiáng)分析
- 為了提高語(yǔ)音混合特征增強(qiáng)效果,設(shè)計(jì)了一種以自適應(yīng)軟掩模與混合特征共同分析算法來(lái)實(shí)現(xiàn)。以混合特征分析可以消除單一梅爾域?yàn)V波器無(wú)法提供高頻特征的缺陷。研究結(jié)果表明:選擇融合相位自適應(yīng)軟掩模方式時(shí),能夠最大程度去除背景噪聲。以本文融合相位差自適應(yīng)軟掩??梢垣@得比IRM更顯著優(yōu)勢(shì),經(jīng)過(guò)優(yōu)化處理的語(yǔ)音特征與學(xué)習(xí)目標(biāo)構(gòu)建得到的語(yǔ)音增強(qiáng)算法能夠促進(jìn)語(yǔ)音質(zhì)量的明顯提升。以自適應(yīng)軟掩模與混合特征訓(xùn)練神經(jīng)網(wǎng)絡(luò)處理獲得優(yōu)秀的信 噪比,達(dá)到更優(yōu)的算法性能。
- 關(guān)鍵字: 202308 語(yǔ)音增強(qiáng) 自適應(yīng)軟掩模 DNN 混合特征
直覺(jué)有害!Facbook最新研究:易于解釋的神經(jīng)元會(huì)誤導(dǎo)DNN的學(xué)習(xí)
- 編譯|蔣寶尚 關(guān)于AI是什么,學(xué)界和業(yè)界已經(jīng)給出了非常多的定義,但是對(duì)于AI理解,探討尚不足。換句話說(shuō),計(jì)算機(jī)科學(xué)家解釋深度神經(jīng)網(wǎng)絡(luò)(DNNs)的能力大大落后于我們利用其取得有用結(jié)果的能力?! ‘?dāng)前理解深度神經(jīng)網(wǎng)絡(luò)的常見(jiàn)做法是在單個(gè)神經(jīng)元特性上“折騰”。例如,激活識(shí)別貓圖像的神經(jīng)元,而關(guān)閉其他神經(jīng)元的“控制變量法”。這種方法的學(xué)術(shù)術(shù)語(yǔ)叫做“類選擇性”。 由于直觀和易理解,“類選擇性”在學(xué)界廣泛應(yīng)用。誠(chéng)然,在訓(xùn)練過(guò)程中,這類可解釋的神經(jīng)元確實(shí)會(huì)“選擇性地”出現(xiàn)在各種不同任務(wù)網(wǎng)絡(luò)中。例如,預(yù)測(cè)產(chǎn)品評(píng)論
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí)
為什么深度學(xué)習(xí)如此容易被愚弄?AI研究員正努力修復(fù)神經(jīng)網(wǎng)絡(luò)缺陷
- 來(lái)源:nature 編譯:張大筆茹、小七 假設(shè)一輛自動(dòng)駕駛汽車看到停車標(biāo)志時(shí)并沒(méi)有減速,而是加速駛?cè)肓朔泵Φ氖致房?,從而?dǎo)致了交通事故。事故報(bào)告顯示,停車標(biāo)志的表面粘了四個(gè)小的矩形標(biāo)志。這說(shuō)明一些微小擾動(dòng)就能愚弄車載人工智能(AI),使其將“停止”一詞誤讀為“限速45”?! ∧壳?,此類事件還未發(fā)生,但是人為擾動(dòng)可能影響AI是非?,F(xiàn)實(shí)的。研究人員已經(jīng)展示了如何通過(guò)粘貼紙來(lái)欺騙AI系統(tǒng)誤讀停車標(biāo)志,或者通過(guò)在眼鏡或帽子上粘貼印刷圖案來(lái)欺騙人臉識(shí)別系統(tǒng),又或者通過(guò)在音頻中插入白噪聲使語(yǔ)音識(shí)別系統(tǒng)產(chǎn)生錯(cuò)
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí)
DNNBrain:北師大團(tuán)隊(duì)出品的用于映射深層神經(jīng)網(wǎng)絡(luò)到大腦的工具箱
- 導(dǎo)讀深度神經(jīng)網(wǎng)絡(luò)(DNN)通過(guò)端到端的深度學(xué)習(xí)策略在許多具有挑戰(zhàn)性的任務(wù)上達(dá)到了人類水平的性能。深度學(xué)習(xí)產(chǎn)生了具有多層抽象層次的數(shù)據(jù)表示;然而,它沒(méi)有明確地提供任何關(guān)于DNNs內(nèi)部運(yùn)作的解釋,換句話說(shuō)它的內(nèi)部運(yùn)作是一個(gè)黑盒子。深度神經(jīng)網(wǎng)絡(luò)的成功吸引了神經(jīng)科學(xué)家,他們不僅將DNN應(yīng)用到生物神經(jīng)系統(tǒng)模型中,而且還采用了認(rèn)知神經(jīng)科學(xué)的概念和方法來(lái)理解DNN的內(nèi)部表示。盡管可以使用諸如PyTorch和TensorFlow之類的通用深度學(xué)習(xí)框架來(lái)進(jìn)行此類跨學(xué)科研究,但是使用這些框架通常需要高級(jí)編程專家和全面的數(shù)學(xué)知
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí) 腦機(jī)接口
CNN(卷積神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))、DNN(深度神經(jīng)網(wǎng)絡(luò))的內(nèi)部網(wǎng)絡(luò)結(jié)構(gòu)的區(qū)別
- 先說(shuō)DNN,從結(jié)構(gòu)上來(lái)說(shuō)他和傳統(tǒng)意義上的NN(神經(jīng)網(wǎng)絡(luò))沒(méi)什么區(qū)別,但是神經(jīng)網(wǎng)絡(luò)發(fā)展時(shí)遇到了一些瓶頸問(wèn)題。一開(kāi)始的神經(jīng)元不能表示異或運(yùn)算,科學(xué)家通過(guò)增加網(wǎng)絡(luò)層數(shù),增加隱藏層可以表達(dá)。并發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)的層數(shù)直接決定了它對(duì)現(xiàn)實(shí)的表達(dá)能力。但是隨著層數(shù)的增加會(huì)出現(xiàn)局部函數(shù)越來(lái)越容易出現(xiàn)局部最優(yōu)解的現(xiàn)象,用數(shù)據(jù)訓(xùn)練深層網(wǎng)絡(luò)有時(shí)候還不如淺層網(wǎng)絡(luò),并會(huì)出現(xiàn)梯度消失的問(wèn)題。我們經(jīng)常使用sigmoid函數(shù)作為神經(jīng)元的輸入輸出函數(shù),在BP反向傳播梯度時(shí),信號(hào)量為1的傳到下一層就變成0.25了,到最后面幾層基本無(wú)法達(dá)到調(diào)節(jié)參數(shù)
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí) CNN RNN
深度神經(jīng)網(wǎng)絡(luò)(DNN)模型與前向傳播算法
- 深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,以下簡(jiǎn)稱DNN)是深度學(xué)習(xí)的基礎(chǔ),而要理解DNN,首先我們要理解DNN模型,下面我們就對(duì)DNN的模型與前向傳播算法做一個(gè)總結(jié)?! ?.從感知機(jī)到神經(jīng)網(wǎng)絡(luò) 在感知機(jī)原理小結(jié)中,我們介紹過(guò)感知機(jī)的模型,它是一個(gè)有若干輸入和一個(gè)輸出的模型,如下圖: 輸出和輸入之間學(xué)習(xí)到一個(gè)線性關(guān)系,得到中間輸出結(jié)果: z=∑i=1mwixi+bz=∑i=1mwixi+b 接著是一個(gè)神經(jīng)元激活函數(shù): sign(z)={?11z<0z≥0sign(z)={
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí)
什么是DNN?它對(duì)AI發(fā)展意味著什么
- 為了讓AI加速器在最短延遲內(nèi)達(dá)到最佳精準(zhǔn)度,特別是在自動(dòng)駕駛車中,TFLOP已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針,然而,有專家認(rèn)為這種野蠻處理方式并不可持續(xù)…… 為了讓人工智能(AI)加速器在最短延遲內(nèi)達(dá)到最佳精準(zhǔn)度,特別是在自動(dòng)駕駛車(AV)中,TFLOP(兆次浮點(diǎn)運(yùn)算)已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針。這場(chǎng)競(jìng)賽的選手包括Nvidia的Xavier、Mobileye的EyeQ5、特斯拉(Tesla)的全自動(dòng)駕駛(FSD)計(jì)算機(jī)芯片,以及NXP-Kalray芯片。然而,有專家認(rèn)為這種野蠻處理方式
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí)
深度學(xué)習(xí)干貨|基于Tensorflow深度神經(jīng)網(wǎng)絡(luò)(DNN)詳解
- 深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,簡(jiǎn)稱DNN)是深度學(xué)習(xí)的基礎(chǔ),想要學(xué)好深度學(xué)習(xí),首先我們要理解DNN模型。DNN的基本結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)是基于感知機(jī)的擴(kuò)展,而DNN可以理解為有很多隱藏層的神經(jīng)網(wǎng)絡(luò)。多層神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)DNN其實(shí)也基本一樣,DNN也叫做多層感知機(jī)(MLP)。DNN按不同層的位置劃分,神經(jīng)網(wǎng)絡(luò)層可以分為三類,輸入層,隱藏層和輸出層,如下圖示例,一般來(lái)說(shuō)第一層是輸入層,最后一層是輸出層,而中間的層數(shù)都是隱藏層。網(wǎng)絡(luò)結(jié)構(gòu)層與層之間是全連接的,也就是說(shuō),第i層的任意一個(gè)神經(jīng)
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí)
Facebook AI新研究:可解釋神經(jīng)元或許會(huì)阻礙DNN的學(xué)習(xí)
- Facebook AI 近期更新博客介紹了一篇新論文,即研究人員通過(guò)實(shí)驗(yàn)發(fā)現(xiàn)「易于解釋的神經(jīng)元可能會(huì)阻礙深層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)」。為了解決這些問(wèn)題,他們提出了一種策略,通過(guò)可偽造的可解釋性研究框架的形式來(lái)探討出現(xiàn)的問(wèn)題?! ∪斯ぶ悄苣P偷降住咐斫狻沽耸裁磧?nèi)容,又是如何「理解」的呢? 回答這個(gè)問(wèn)題對(duì)于改進(jìn)人工智能系統(tǒng)來(lái)說(shuō)至關(guān)重要。而不幸的是,計(jì)算機(jī)科學(xué)家解釋深層神經(jīng)網(wǎng)絡(luò)(DNN)的能力遠(yuǎn)遠(yuǎn)落后于我們用它們實(shí)現(xiàn)有用結(jié)果的能力。 一種常見(jiàn)的理解DNN的方法集中在單個(gè)神經(jīng)元的屬性上,例如,尋找出一個(gè)單獨(dú)的神經(jīng)元,
- 關(guān)鍵字: Facebook AI DNN
Mentor Catapult HLS 助力Chips&Media 將深度學(xué)習(xí)硬件加速器 IP 交付時(shí)間縮短一半
- Mentor?, a Siemens business 今日宣布 Chips&Media? 已成功部署 Mentor Catapult? HLS 平臺(tái),將使用深度神經(jīng)網(wǎng)絡(luò) (DNN) 算法設(shè)計(jì)和驗(yàn)證其 c.WAVE 計(jì)算機(jī)視覺(jué) IP 的實(shí)時(shí)對(duì)象檢測(cè)。Chips&Media 是一家面向片上系統(tǒng) (SoC) 設(shè)計(jì)高性能、高質(zhì)量視頻 IP 的領(lǐng)先供應(yīng)商,其產(chǎn)品廣泛應(yīng)用于汽車、監(jiān)控和消費(fèi)電子領(lǐng)域?! hips&Media 需要通過(guò)減少功能驗(yàn)證時(shí)間、時(shí)序收斂、自定義和最終優(yōu)
- 關(guān)鍵字: Mentor DNN
Gartner公布十大戰(zhàn)略物聯(lián)網(wǎng)技術(shù)和趨勢(shì)
- Gartner今天強(qiáng)調(diào)了最重要的幾大戰(zhàn)略物聯(lián)網(wǎng)(IoT)技術(shù)趨勢(shì),并稱這些趨勢(shì)將推動(dòng)2018年至2023年期間的數(shù)字業(yè)務(wù)創(chuàng)新?! artner研究副總裁Nick Jones表示:“物聯(lián)網(wǎng)將繼續(xù)為未來(lái)十年的數(shù)字業(yè)務(wù)創(chuàng)新提供新的機(jī)遇,其中很多創(chuàng)新將通過(guò)新技術(shù)或改進(jìn)技術(shù)實(shí)現(xiàn)。那些掌握了創(chuàng)新物聯(lián)網(wǎng)趨勢(shì)的CIO們才有機(jī)會(huì)在其業(yè)務(wù)中領(lǐng)導(dǎo)數(shù)字化創(chuàng)新。” 此外,CIO們應(yīng)該確保他們擁有必要的技能和合作伙伴,以支持關(guān)鍵的新興物聯(lián)網(wǎng)趨勢(shì)和技術(shù),因?yàn)榈?023年CIO們負(fù)責(zé)的端點(diǎn)數(shù)量將是今年的3倍多?! artner
- 關(guān)鍵字: DNN 物聯(lián)網(wǎng)(
人類和DNN的目標(biāo)識(shí)別穩(wěn)健性比較
- 深度神經(jīng)網(wǎng)絡(luò)在很多任務(wù)上都已取得了媲美乃至超越人類的表現(xiàn),但其泛化能力仍遠(yuǎn)不及人類。德國(guó)蒂賓根大學(xué)等多所機(jī)構(gòu)近期的一篇論文對(duì)人類和 DNN 的目標(biāo)識(shí)別穩(wěn)健性進(jìn)行了行為比較,并得到了一些有趣的見(jiàn)解。機(jī)器之心對(duì)該論文進(jìn)行了編譯介紹?! ≌ ∥覀兺ㄟ^(guò) 12 種不同類型的圖像劣化(image degradation)方法,比較了人類與當(dāng)前的卷積式深度神經(jīng)網(wǎng)絡(luò)(DNN)在目標(biāo)識(shí)別上的穩(wěn)健性。首先,對(duì)比三種著名的 DNN(ResNet-152、VGG-19、GoogLeNet),我們發(fā)現(xiàn)不管對(duì)圖像進(jìn)行怎樣的操
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò)
深度神經(jīng)網(wǎng)絡(luò)(DNN)是否模擬了人類大腦皮層結(jié)構(gòu)?
- 概要:人工智能交融了諸多學(xué)科,而目前對(duì)人工智能的探索還處于淺層面,我們需要從不同角度和層次來(lái)思考,比如人工智能和大腦的關(guān)系。 神經(jīng)元 在深度學(xué)習(xí)領(lǐng)域,神經(jīng)元是最底層的單元,如果用感知機(jī)的模型, wx + b, 加上一個(gè)激活函數(shù)構(gòu)成了全部,輸入和輸出都是數(shù)字,研究的比較清楚。別的不說(shuō),在參數(shù)已知的情況下,有了輸入可以計(jì)算輸出,有了輸出可以計(jì)算輸入。 但在神經(jīng)科學(xué)領(lǐng)域,神經(jīng)元并不是最底層的單位。 舉例來(lái)說(shuō),有人在做神經(jīng)元膜離子通道相關(guān)的工作。一個(gè)神經(jīng)元的輸入,可以分為三部分,從其他
- 關(guān)鍵字: DNN 深度學(xué)習(xí)
共13條 1/1 1 |
dnn介紹
深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,簡(jiǎn)稱DNN)是深度學(xué)習(xí)的基礎(chǔ)。DNN的基本結(jié)構(gòu) 神經(jīng)網(wǎng)絡(luò)是基于感知機(jī)的擴(kuò)展,而DNN可以理解為有很多隱藏層的神經(jīng)網(wǎng)絡(luò)。多層神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)DNN其實(shí)也基本一樣,DNN也叫做多層感知機(jī)(MLP)?! NN按不同層的位置劃分,神經(jīng)網(wǎng)絡(luò)層可以分為三類,輸入層,隱藏層和輸出層,如下圖示例,一般來(lái)說(shuō)第一層是輸入層,最后一層是輸出層,而中間的層 [ 查看詳細(xì) ]
關(guān)于我們 -
廣告服務(wù) -
企業(yè)會(huì)員服務(wù) -
網(wǎng)站地圖 -
聯(lián)系我們 -
征稿 -
友情鏈接 -
手機(jī)EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國(guó)際技術(shù)信息咨詢有限公司
京ICP備12027778號(hào)-2 北京市公安局備案:1101082052 京公網(wǎng)安備11010802012473
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國(guó)際技術(shù)信息咨詢有限公司
京ICP備12027778號(hào)-2 北京市公安局備案:1101082052 京公網(wǎng)安備11010802012473