基于神經(jīng)網(wǎng)絡(luò)的抽油機故障診斷
神經(jīng)網(wǎng)絡(luò)技術(shù)在學習速度、適應(yīng)性、非線性映射等性能上有獨特的優(yōu)勢,能夠進行有效的監(jiān)督分類,因此常用來進行聚類分析,然而在進行聚類分析時,出現(xiàn)為了提高識別精度而使網(wǎng)絡(luò)規(guī)模較大,并且收斂時間慢的問題,1981年芬蘭學者Kohonen提出了一個比較完整的、分類性能較好的自組織特征映射(Self-Organizing Feature Map)神經(jīng)網(wǎng)絡(luò)(簡稱SOM網(wǎng)絡(luò))的方案。SOM網(wǎng)絡(luò)是一種由全連接的神經(jīng)元陣列組成的無教師自組織網(wǎng)絡(luò),可以認為是2層網(wǎng)絡(luò),第一層是輸入層,另一層是競爭層,本例的SOM網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示 [1]:
本文針對傳統(tǒng)自組織神經(jīng)網(wǎng)絡(luò)分類精度低和收斂速度慢的缺點進行改進。
2 自組織特征映射神經(jīng)網(wǎng)絡(luò)
SOM網(wǎng)絡(luò)能將任意維輸入映射成一維或者二維離散圖形,并保持其拓撲結(jié)構(gòu)不變,此外,網(wǎng)絡(luò)通過對輸入模式的反復學習,可以使連接權(quán)值空間分布密度與輸入模式的概率分布趨于一致。網(wǎng)絡(luò)在競爭過程中,近鄰者相互激勵,遠鄰者相互抑制,比遠鄰更遠的神經(jīng)元則表現(xiàn)弱激勵作用。由于這種交互作用的曲線類似于墨西哥人帶的帽子,因此也稱這種交互方式為“墨西哥帽”[2],如圖2 所示:
SOM網(wǎng)絡(luò)根據(jù)其學習規(guī)則,對輸入模式進行自動分類,捕捉住各個輸入模式中所含的模式特征,并對其進行自組織,在競爭層將分類結(jié)果表現(xiàn)出來,SOM網(wǎng)絡(luò)的特點是:
1) 一旦由于某種原因,某個神經(jīng)元受到損害或者完全失效,剩下的神經(jīng)元仍可以保證所對應(yīng)的記憶信息不會消失。
2) 網(wǎng)絡(luò)對學習模式的記憶不是一次性完成的,而是通過反復學習,將輸入模式的統(tǒng)計特征“溶解”到各個連接權(quán)上的。所以這種網(wǎng)絡(luò)具有較強的抗干擾能力。
它的具體的工作原理過程如下:
1) 首先將權(quán)值賦予隨機初始值;同時設(shè)置一個初始鄰域,并設(shè)置網(wǎng)絡(luò)的循環(huán)次數(shù) ;
2)然后給出一個新的輸入模式輸入到網(wǎng)絡(luò)上;
3) 采用勝者為王的模式,計算模式和所有的輸出神經(jīng)元的距離,并選擇和距離最小的神經(jīng)元C, 即,則C即為獲勝神經(jīng)元;
4) 更新結(jié)點及其鄰域結(jié)點的連接權(quán)值:
式中:為增益函數(shù),隨著時間逐漸減小;
5) 選取另一個學習模式提供給網(wǎng)絡(luò),返回步驟3),直到全部的輸入模式都提供給網(wǎng)絡(luò);
6) 令, 返回步驟2), 直至為止。
由SOM網(wǎng)絡(luò)的工作原理可以看出,標準SOM網(wǎng)絡(luò)學習速率在遞減過程中采用線性遞減的方式,這將導致網(wǎng)絡(luò)收斂速度慢,在數(shù)據(jù)量比較大的情況下就會導致網(wǎng)絡(luò)聚類結(jié)果不穩(wěn)定甚至發(fā)散。因此可以將改進學習率遞減方式作為改進SOM網(wǎng)絡(luò)的一個方向。
2.1 神經(jīng)網(wǎng)絡(luò)的改進
實驗證明利用標準的自組織特征映射神經(jīng)網(wǎng)絡(luò)對分類的效果不是很理想,因為該算法對學習速率調(diào)整只采用線性遞減,聚類的收斂速度慢,而且對鄰域也只采用正方形或圓形域,造成權(quán)值調(diào)整時,鄰域內(nèi)所有神經(jīng)元都同樣激活,所以最終聚類效果不好,因此要想辦法從改進學習率、鄰域等方面來提高網(wǎng)絡(luò)的性能。
將網(wǎng)絡(luò)的學習過程分為2個階段,分別為快學習階段和調(diào)整階段,在快學習階段中,學
習速率采用冪函數(shù)遞減的方式,聚類的效果較好,同時收斂的速度快,所采用的遞減方式為
時收斂的速度快,所采用的遞減方式為:
式中:為常數(shù),一般為0.05
同時根據(jù)網(wǎng)絡(luò)學習時神經(jīng)元間相互作用曲線,側(cè)反饋的強度與鄰域內(nèi)神經(jīng)元i同獲勝神經(jīng)元C的距離有關(guān), 典型的Gauss函數(shù)[3]最適合作為鄰域函數(shù),如式(3)所示:
式中:為鄰域的有效寬度,而為競爭層神經(jīng)元間的距離,對維元素其距離公式如下:
式中:分別表示神經(jīng)元間在陣列上的坐標,并且采用冪函數(shù)遞減
式中:參數(shù)一般取0.5
這樣在快學習階段學習率應(yīng)遞減較快,可采用冪函數(shù)形式,鄰域從較大值遞減為較小值,在調(diào)整階段,網(wǎng)絡(luò)學習集中對較小范圍內(nèi)的神經(jīng)元的連接權(quán)值進行調(diào)整,其學習率遞減緩慢,可采用線性函數(shù)形式,鄰域值從較大值緩慢減小為0,即只包含獲勝神經(jīng)元。
pid控制相關(guān)文章:pid控制原理
評論