新聞中心

EEPW首頁 > EDA/PCB > 設(shè)計應(yīng)用 > Adaline神經(jīng)網(wǎng)絡(luò)隨機逼近LMS算法的仿真研究

Adaline神經(jīng)網(wǎng)絡(luò)隨機逼近LMS算法的仿真研究

作者: 時間:2009-10-20 來源:網(wǎng)絡(luò) 收藏

1 引言
人工最重要的功能之一是分類。對于線性可分問題,采用硬限幅函數(shù)的單個神經(jīng)元,通過簡單的學(xué)習(xí)算法就可成功實現(xiàn)分類。即對于兩個不同類中的輸入矢量,神經(jīng)元的輸出值為0或1。但對于大多數(shù)非線性可分類,硬限幅神經(jīng)元則無法完成分類功能。自適應(yīng)線性元件(Adap-tive LiIlear Element)是一種具有線性功能函數(shù)的神繹元,在實際輸出與理想預(yù)期值的最小二乘(Least Mean Square)的統(tǒng)計意義下進行學(xué)習(xí),可以實現(xiàn)最佳的非線性可分集合的分類,即按照最小二乘的統(tǒng)計意義要求,實際輸出值與理想預(yù)期值之間的誤差均方值為最小,能夠?qū)崿F(xiàn)這一目的算法即稱為最小二乘學(xué)習(xí)算法或算法。

本文引用地址:http://www.butianyuan.cn/article/191910.htm

2 算法原理
設(shè)輸入矢量X=[x1,x2,…,xn],加權(quán)矢量W=[ω1,ω2,…,ωn],則神經(jīng)元的輸出為:


定義ε(k)是理想輸出值d(k)與實際輸出值y(k)之間的誤差,即ε(k)=d(k)-y(k),其均方值記作E[ε2(k)],令ζ(k)=E[ε2(k)],則:

由式(2)可知必定存在最佳的加權(quán)矢量W*,使ζ(k)達到最小,此時ζ(k)相對于W的梯度等于零,從而可以得到:


式(3)雖然給出了求最佳加權(quán)矢量的方法,但需要大量的統(tǒng)計計算,而且當(dāng)輸入矢量X的維數(shù)很大時,需要解決高階矩陣求逆問題,這些在數(shù)學(xué)計算上都是非常閑難的。

3 隨機逼近LMS學(xué)習(xí)算法的提出
為了解決式(3)存在的問題,有學(xué)者提出LMS學(xué)習(xí)問題的嚴(yán)格遞推算法和隨機逼近算法,這里簡要描述其算法原理。LMS學(xué)習(xí)問題的嚴(yán)格遞推算法是在任意設(shè)置初始加權(quán)矢量W(0)時,對于每一個時序變量k,對W調(diào)整:


用這種方法可以保證求得嚴(yán)格的最佳解,而且避開矩陣求逆。但學(xué)習(xí)過程的每一步仍需大量的統(tǒng)計計算,仍需解決統(tǒng)計計算困難。


上一頁 1 2 3 下一頁

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉