支持向量回歸機(jī)在風(fēng)電系統(tǒng)槳距角預(yù)測(cè)中的應(yīng)用
在風(fēng)力發(fā)電系統(tǒng)中,隨著風(fēng)速的變化,要使輸出功率最佳,需對(duì)槳距角進(jìn)行預(yù)測(cè),從而得到某特定風(fēng)速下的最佳槳距角。支持向量機(jī)(Support Vector Machines,SVM)是根據(jù)統(tǒng)計(jì)學(xué)理論中最小化原則提出來(lái)的,由有限數(shù)據(jù)得到的判別函數(shù),對(duì)獨(dú)立的測(cè)試樣本能夠得到較小的誤差,包括支持向量分類機(jī)(Support Vector Classification,SVC)和支持向量回歸機(jī)(Support Vector Regression,SVR)。此文用的就是SVR算法,其目的是構(gòu)造一個(gè)回歸估計(jì)函數(shù),將非線性函數(shù)的回歸估計(jì)問(wèn)題轉(zhuǎn)化為一個(gè)具有線性等式約束和線性不等式約束的二次規(guī)劃問(wèn)題??梢缘玫轿ㄒ坏娜肿顑?yōu)解。此最優(yōu)解,在預(yù)測(cè)槳距角中就是最佳槳距角。
1 SVR
1.1 SVR的引入
現(xiàn)有的預(yù)測(cè)槳距角算法有基于BP算法和基于LV算法的神經(jīng)網(wǎng)絡(luò),BP算法收斂速度慢、精度低,LV算法泛化能力差,因此,能改變現(xiàn)有算法不足的支持向量機(jī)算法應(yīng)運(yùn)而生。SVM方法最早是針對(duì)模式識(shí)別問(wèn)題提出的,隨著對(duì)ε不敏感損失函數(shù)的引入,現(xiàn)已推廣應(yīng)用到非線性回歸估計(jì)和曲線擬合中,得到了用于曲線擬合的回歸型支持向量機(jī)SVR,表現(xiàn)出很好的學(xué)習(xí)效果。
1.2 回歸算法原理
標(biāo)準(zhǔn)的SVR算法,分為線性和非線性兩種。SVR的基本思想是:將輸入樣本空間非線性變換到另一個(gè)特征空間,在這個(gè)特征空間構(gòu)造回歸估計(jì)數(shù),這種非線性變換是通過(guò)定義適當(dāng)?shù)暮撕瘮?shù)K(xi,xj)來(lái)實(shí)現(xiàn)的。其中K(xi,xj)=φ(xi)·φ(xj),φ(x)為某一非線性函數(shù)。
假設(shè)給定了訓(xùn)練數(shù)據(jù),{(xi,yi),i=1,2,...,n},xi為學(xué)習(xí)樣本,yi為對(duì)應(yīng)的目標(biāo)值。定義線性ε不敏感損失函數(shù)為:
即如果目標(biāo)y值和經(jīng)過(guò)學(xué)習(xí)構(gòu)造的回歸估計(jì)函數(shù)f(x)的值之間的差別小于ε,則損失等于0。
假設(shè)非線性情形的回歸估計(jì)函數(shù)為:
要尋找w、b對(duì),使在式(1)不變的前提下最小化。
同時(shí)考慮到當(dāng)約束條件不可實(shí)現(xiàn)時(shí)將松弛變量引入,這樣最優(yōu)化問(wèn)題為:
利用拉格朗日乘子法來(lái)求解這個(gè)約束最優(yōu)化問(wèn)題,因此構(gòu)造拉格朗日函數(shù)
其中NNSV為標(biāo)準(zhǔn)支持向量數(shù)量。由式(7)和式(8)知,盡管通過(guò)非線性函數(shù)將樣本數(shù)據(jù)映射到具有高維甚至無(wú)窮維的特征空間,但在計(jì)算回歸估計(jì)函數(shù)時(shí)并不需要顯式計(jì)算該非線性函數(shù),而只需計(jì)算核函數(shù),從而避免高維特征空間引起維數(shù)災(zāi)難問(wèn)題。
評(píng)論