新聞中心

EEPW首頁(yè) > EDA/PCB > 設(shè)計(jì)應(yīng)用 > Matlab語(yǔ)言的Neural Network Toolbox 及其在同步中

Matlab語(yǔ)言的Neural Network Toolbox 及其在同步中

作者: 時(shí)間:2012-09-11 來源:網(wǎng)絡(luò) 收藏

子對(duì)象結(jié)構(gòu)中包含了網(wǎng)絡(luò)單個(gè)對(duì)象的信息。神經(jīng)元的每一層有相同的傳輸函數(shù)net.transferFcn和網(wǎng)絡(luò)輸入函數(shù)net.netInputFcn,對(duì)于創(chuàng)建感知機(jī)采用hardlim和netsum函數(shù)。如果神經(jīng)元要有不同的傳輸函數(shù),則將設(shè)計(jì)不同的層以滿足要求。參數(shù)net.Input-Weights和net.layerWeights描述了被應(yīng)用的訓(xùn)練函數(shù)以及它們的參數(shù)。

接下來敘述訓(xùn)練函數(shù)、初始化函數(shù)和性能函數(shù)。

trainFcn和adaptFcn是2種不同的訓(xùn)練方式,分別指批處理方式和增加方式或稱在線方式。通過設(shè)置trainFcn的參數(shù),就可以告訴哪種運(yùn)算法被使用;在運(yùn)用循環(huán)順序增加方式時(shí),多用trainc函數(shù)。ANN工具箱包含大約20個(gè)訓(xùn)練函數(shù)。性能函數(shù)用來測(cè)定ANN完成規(guī)定任務(wù)時(shí)的性能。對(duì)于感知機(jī),它的平均差錯(cuò)性能測(cè)定用函數(shù)mae;對(duì)于線性衰退系統(tǒng),它的均方根差錯(cuò)性能測(cè)定用函數(shù)mae。initFcn函數(shù)用來初始化網(wǎng)絡(luò)的權(quán)重和偏置。神經(jīng)網(wǎng)絡(luò)工具箱包含在nnet目錄中,鍵入help nnet可得到幫助主題。如果要將這些函數(shù)替換為工具箱里的其他函數(shù)或者是自己編寫的函數(shù),只需把這些函數(shù)名配置新的參數(shù)即可,例如:

通過改變參數(shù),可以改變上面提到的函數(shù)的默認(rèn)行為。最經(jīng)常用到的函數(shù)的參數(shù)就是:trainParam,格式:net.trainParam.epochs,用來設(shè)置運(yùn)算的時(shí)間點(diǎn)的最大數(shù)目;格式:net.trainParam.show,用來設(shè)置性能測(cè)定間隔的時(shí)間點(diǎn)的數(shù)目??梢酝ㄟ^輸入幫助help獲得更多信息。

網(wǎng)絡(luò)的權(quán)重和偏置也被存儲(chǔ)在下面的結(jié)構(gòu)體里面:

IW(i,j)部分是一個(gè)二維的元胞矩陣,存儲(chǔ)輸入j與網(wǎng)絡(luò)層i的連接的權(quán)重。LW(i,j)部分,用來存儲(chǔ)網(wǎng)絡(luò)層j和網(wǎng)絡(luò)層i間連接的權(quán)重。元胞數(shù)組b存儲(chǔ)每一層的偏置向量。

2.2 模式分類

如果一個(gè)問題可以被分解為多個(gè)模式級(jí)別,則可以用神經(jīng)網(wǎng)絡(luò)來解決這一問題。在大多數(shù)情況下,利用神經(jīng)網(wǎng)絡(luò)解決問題是可能的。神經(jīng)網(wǎng)絡(luò)的函數(shù)用來接收輸入模式,然后輸出適合這一級(jí)別的模式。

這方面的例子由產(chǎn)生和訓(xùn)練一個(gè)感知機(jī)對(duì)屬于3個(gè)不同等級(jí)的點(diǎn)進(jìn)行正確的分級(jí)。神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)被定義如下:

X矩陣的每一行代表一個(gè)采樣點(diǎn),采樣點(diǎn)的等級(jí)用矩陣C的相應(yīng)元素值來描述。因?yàn)橄胍獙?duì)3個(gè)不同的等級(jí)進(jìn)行區(qū)分,所以需要3個(gè)感知機(jī),每一個(gè)等級(jí)有1個(gè)。相應(yīng)的目標(biāo)函數(shù)描述如下:

2.3 訓(xùn)練與泛化

神經(jīng)網(wǎng)絡(luò)是模式分級(jí)的,但并不是所有的模式分級(jí)都指的是神經(jīng)網(wǎng)絡(luò)。下面將講述神將神經(jīng)網(wǎng)絡(luò)與其他分級(jí)的一些區(qū)別。它們的主要區(qū)別在2個(gè)屬性上:學(xué)習(xí)與泛化。

在使用電子存儲(chǔ)器解決數(shù)字分級(jí)器時(shí),管理存儲(chǔ)器,特別是完成輸入的合并方面,花費(fèi)很大精力。要求能夠通過給它較少數(shù)目的簡(jiǎn)單且具有正確響應(yīng)的例子來解決問題,這就指的是學(xué)習(xí)或稱為訓(xùn)練:系統(tǒng)學(xué)習(xí)識(shí)別默寫特定的模式,然后給出正確的輸出響應(yīng)。

某種程度上,這一部分已經(jīng)被如今的電子存儲(chǔ)器實(shí)現(xiàn)了。首先初始化設(shè)置存儲(chǔ)器的所有值為0,然后,調(diào)用范例對(duì)存儲(chǔ)器的值進(jìn)行訓(xùn)練,將結(jié)果存入存儲(chǔ)器的相應(yīng)位置。在相應(yīng)的位置用1替換原來的0。1顯示了相應(yīng)的輸入模式等級(jí)。訓(xùn)練階段結(jié)束后,進(jìn)入實(shí)際操作。如果這些模式與訓(xùn)練階段的模式是一樣的,則輸出結(jié)果就是正確的。

理想的,器件應(yīng)該給出正確的響應(yīng),即使有些例子沒有明確的顯示。這部分被稱為泛化。系統(tǒng)能夠推斷出例子給的不同模式等級(jí)的屬性。神經(jīng)網(wǎng)絡(luò)能夠做這種事,如果他們被正確操作,他們將對(duì)那些在訓(xùn)練階段學(xué)習(xí)的模式非常相似的模式做出響應(yīng)。那么,對(duì)于數(shù)字分級(jí)器來說,這意味著神經(jīng)網(wǎng)絡(luò)被數(shù)據(jù)范例進(jìn)行訓(xùn)練,它就能正確地區(qū)分相似的數(shù)據(jù),而以前這些都是次要的。這里設(shè):

c++相關(guān)文章:c++教程




關(guān)鍵詞: Network Toolbox Matlab Neural

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉