AI講座:自編碼器——神奇的ML瑞士刀
1 神奇的自編碼器
在之前各期里,所舉的范例模型都是基于邏輯回歸(Logistic regression)的線性分類器(Linear classifier)。其訓(xùn)練方法是采取監(jiān)督式學(xué)習(xí)(Supervised Learning)模式。在本期里, 將進一步介紹非監(jiān)督式學(xué)習(xí)(Unsupervised Learning)模式,并以小而美的自編碼器(Autoencoder,簡稱:AE)為例。自編碼器是一種小而美的ML 模型,它的用途非常多,所以有“ML 瑞士刀”之稱。例如,Pawer Sobel 就稱之為:深度學(xué)習(xí)瑞士刀。
他在該文章里寫道:“當(dāng)談到在一個充滿機器學(xué)習(xí)問題的世界中生存時,有一種演算法可能像瑞士刀一樣通用,它是一種自動編碼器。”
2 復(fù)習(xí):分類器(Classifier)
首先來復(fù)習(xí)您已經(jīng)熟悉的邏輯回歸(分類器)模型。例如,有一群鴨和雞,我們收集了它們的兩項特征是:頭冠大小與腳蹼大小。如下圖所示:
這是監(jiān)督式學(xué)習(xí)模式,我們給予目標(biāo)值(T),也就是貼上分類標(biāo)簽(Label)。也就是,在Z 空間里設(shè)定了兩個目標(biāo)值,如下:
接下來,就可按下“學(xué)習(xí)”,ML 模型就尋找出最棒的W&B 來表達上述的對應(yīng)關(guān)系。于是,輸出很棒的預(yù)測值(Z):
可以看出,已經(jīng)尋找出很棒的W&B 了,預(yù)測值(Z)非常接近于目標(biāo)值(T)了,呈現(xiàn)出的理想的空間對應(yīng)關(guān)系:
這是一個簡單的分類模型。
3 增添一個新分類器
剛才的分類器(取名為分類器-1)已經(jīng)輸出了預(yù)測值(Z)。接下來,我們做一項巧妙的組合:設(shè)計一個新的分類器(取名為分類器-2),并且拿這個Z 值做為新模型的輸入值(ZX),如下圖:
這是一個簡單的分類模型,其公式是:ZX * Wr +Br = ZY。接下來,就可按下“學(xué)習(xí)”,這回歸模型尋找出Wr&Br 得出一條回歸線,并輸出其預(yù)測值(Z):
于是,我們共有兩段空間對應(yīng)關(guān)系:1)分類器-1的空間對應(yīng);2)分類器-2 的空間對應(yīng)?,F(xiàn)在,將兩者連接起來,形成下述的整合對應(yīng)關(guān)系:
其中,值得留意的是:這兩段的空間對應(yīng)是獨立訓(xùn)練(學(xué)習(xí))的。然而,現(xiàn)在的ML 是可以多層一起學(xué)習(xí)的,也就是通稱的深度學(xué)習(xí)(Deep learning)。
4 組合成為深度學(xué)習(xí)模型
剛才的分類器-1 和分類器-2 都是單層的神經(jīng)網(wǎng)絡(luò)?,F(xiàn)在將兩個模型融合為一,成為一個多層的神經(jīng)網(wǎng)絡(luò)。使用Excel 來呈現(xiàn)其數(shù)據(jù)關(guān)聯(lián),如下圖:
此時,中間層通稱為隱藏層(Hidden layer)。上圖里的Wh 和Bh 就是隱藏層的權(quán)重和位移;而Wo 和Bo則是輸出層的權(quán)重和位移。由于是監(jiān)督式學(xué)習(xí)模式,所以在Y 空間里設(shè)定了兩個目標(biāo)值(也就是上圖中的標(biāo)簽),如下圖所示:
接下來,按下“學(xué)習(xí)”,這個多層模型就開始學(xué)習(xí),尋找出最好的Wh&Bh,以及最好的Wo&Bo,并且,輸出其預(yù)測值(Y):
其空間對應(yīng)關(guān)系如下圖所示:
在這個模型里,我們貼上了標(biāo)簽,所以是監(jiān)督式學(xué)習(xí)模式。
5 設(shè)計出自編碼器(Autoencoder)
上一小節(jié)的多層分類模型,是人為的貼上分類標(biāo)簽,所以屬于監(jiān)督式學(xué)習(xí)。反之,如果不需要人去貼標(biāo)簽,就稱為非監(jiān)督式學(xué)習(xí)了。于是,想一想:如果沒有人去貼標(biāo)簽,那么這個模型又如何學(xué)習(xí)呢?于是,ML 專家們就想到一個方法,就是:用輸入值(X)來作為Y 空間的目標(biāo)值(T),如下圖:
其中,目標(biāo)值(T)就等于輸入值(X)。由于人們不必去煩惱各筆資料該貼上什么標(biāo)簽了。因此這個新模型,就屬于非監(jiān)督式學(xué)習(xí)了。由于用自己的輸入值當(dāng)作目標(biāo)值,所以又稱為自編碼器(Autoencoder)。此時,X 空間與Y 空間的對應(yīng)關(guān)系如下:
接下來,按下“學(xué)習(xí)”,這個多層模型就開始學(xué)習(xí),尋找出最好的Wh&Bh,以及最好的Wo&Bo,并且,輸出其預(yù)測值(Y):
此時的空間對應(yīng)關(guān)系是:
這就是神奇的AE(Autoencoder)模型。它的結(jié)構(gòu)很簡單,而用途卻非常多,所以被稱之為:小而美的神奇ML 瑞士刀。到底他有哪些神奇之處呢?在下一期里,將會為您詳細解說。
(本文來源于《電子產(chǎn)品世界》雜志2021年9月期)
評論