博客專欄

EEPW首頁 > 博客 > 獨家 | 使用TensorFlow 2創(chuàng)建自定義損失函數(shù)

獨家 | 使用TensorFlow 2創(chuàng)建自定義損失函數(shù)

發(fā)布人:數(shù)據(jù)派THU 時間:2021-05-26 來源:工程師 發(fā)布文章

作者:Arjun Sarkar

翻譯:陳之炎

校對:歐陽錦

1.png

神經(jīng)網(wǎng)絡利用訓練數(shù)據(jù),將一組輸入映射成一組輸出,它通過使用某種形式的優(yōu)化算法,如梯度下降、隨機梯度下降、AdaGrad、AdaDelta等等來實現(xiàn),其中最新的算法包括Adam、Nadam或RMSProp。梯度下降中的“梯度”是指誤差梯度。每次迭代之后,網(wǎng)絡將其預測輸出與實際輸出進行比較,然后計算出“誤差”。

通常,對于神經(jīng)網(wǎng)絡,尋求的是將誤差最小化。將誤差最小化的目標函數(shù)通常稱之為成本函數(shù)或損失函數(shù),由“損失函數(shù)”計算出的值稱為“損失”。在各種問題中使用的典型損失函數(shù)有:

均方誤差;

均方對數(shù)誤差;

二元交叉熵;

分類交叉熵;

稀疏分類交叉熵。

Tensorflow已經(jīng)包含了上述損失函數(shù),直接調(diào)用它們即可,如下所示:

1. 將損失函數(shù)當作字符串進行調(diào)用

model.compile (loss = ‘binary_crossentropy’,optimizer = ‘a(chǎn)dam’, metrics = [‘a(chǎn)ccuracy’])

2. 將損失函數(shù)當作對象進行調(diào)用

from tensorflow.keras.losses importmean_squared_error
model.compile(loss = mean_squared_error,optimizer=’sgd’)

將損失函數(shù)當作對象進行調(diào)用的優(yōu)點是可以在損失函數(shù)中傳遞閾值等參數(shù)。

from tensorflow.keras.losses import mean_squared_error
model.compile (loss=mean_squared_error(param=value),optimizer = ‘sgd’)

利用現(xiàn)有函數(shù)創(chuàng)建自定義損失函數(shù):

利用現(xiàn)有函數(shù)創(chuàng)建損失函數(shù),首先需要定義損失函數(shù),它將接受兩個參數(shù),y_true(真實標簽/輸出)和y_pred(預測標簽/輸出)。

def loss_function(y_true, y_pred):
***some calculation***
return loss

創(chuàng)建均方誤差損失函數(shù) (RMSE):

定義損失函數(shù)名稱-my_rmse。目的是返回目標(y_true)與預測(y_pred)之間的均方誤差。

RMSE的公式為:

2.jpg

  • 誤差:真實標簽與預測標簽之間的差異。

  • sqr_error:誤差的平方。

  • mean_sqr_error:誤差平方的均值。

  • sqrt_mean_sqr_error:誤差平方均值的平方根(均方根誤差)。

3.png

創(chuàng)建Huber損失函數(shù):

4.png圖2:Huber損失函數(shù)(綠色)和平方誤差損失函數(shù)(藍色)(來源:Qwertyus— Own work,CCBY-SA4.0,https://commons.wikimedia.org/w/index.php?curid=34836380)

Huber損失函數(shù)的計算公式:

5.jpg

在此處,δ是閾值,a是誤差(將計算出a,即實際標簽和預測標簽之間的差異)。

當|a|≤δ時,loss = 1/2*(a)2

當 |a|>δ時,loss = δ(|a|—(1/2)*δ)

源代碼:

6.png

詳細說明:

首先,定義一個函數(shù)—— my huber loss,它需要兩個參數(shù):y_true和y_pred,

設置閾值threshold = 1。

計算誤差error a = y_true-y_pred。接下來,檢查誤差的絕對值是否小于或等于閾值,is_small_error返回一個布爾值(真或假)。

當|a|≤δ時,loss= 1/2*(a)2,計算small_error_loss, 誤差的平方除以2。否則,當|a| >δ時,則損失等于δ(|a|-(1/2)*δ),用big_error_loss來計算這個值。

最后,在返回語句中,首先檢查is_small_error是真還是假,如果它為真,函數(shù)返回small_error_loss,否則返回big_error_loss,使用tf.where來實現(xiàn)。

可以使用下述代碼來編譯模型:

7.png

在上述代碼中,將閾值設為1。

如果需要調(diào)整超參數(shù)(閾值),并在編譯過程中加入一個新的閾值的話,必須使用wrapper函數(shù)進行封裝,也就是說,將損失函數(shù)封裝成另一個外部函數(shù)。在這里需要用到封裝函數(shù)(wrapper function),因為損失函數(shù)在默認情況下只能接受y_true和y_pred值,而且不能向原始損失函數(shù)添加任何其他參數(shù)。

使用封裝后的Huber損失函數(shù)

封裝函數(shù)的源代碼:

8.png

此時,閾值不是硬編碼,可以在模型編譯過程中傳遞該閾值。

9.png

使用類實現(xiàn)Huber損失函數(shù)(OOP)

10.png

其中,MyHuberLoss是類名稱,隨后從tensorflow.keras.losses繼承父類“Loss”, MyHuberLoss繼承了Loss類,之后可以將MyHuberLoss當作損失函數(shù)來使用。

__init__   初始化該類中的對象。執(zhí)行類實例化對象時調(diào)用函數(shù),init函數(shù)返回閾值,調(diào)用函數(shù)得到y(tǒng)_true和y_pred參數(shù),將閾值聲明為一個類變量,可以給它賦一個初始值。

在__init__函數(shù)中,將閾值設置為self.threshold。在調(diào)用函數(shù)中,self.threshold引用所有的閾值類變量。在model.compile中使用這個損失函數(shù):

11.png

創(chuàng)建對比性損失(用于Siamese網(wǎng)絡):

12.jpg

Siamese網(wǎng)絡可以用來比較兩幅圖像是否相似,Siamese網(wǎng)絡使用的損失函數(shù)為對比性損失。

在上文的公式中,Y_true是關(guān)于圖像相似性細節(jié)的張量,如果圖像相似,則為1,如果圖像不相似,則為0。

D是圖像對之間的歐氏距離的張量。邊際為一個常量,用它來設置將圖像區(qū)別為相似或不同的最小距離。如果為Y_true=1,則方程的第一部分為D2,第二部分為0,所以,當Y_true接近1時,D2的權(quán)重則更重。

如果Y_true=0,則方程的第一部分變?yōu)?,第二部分會產(chǎn)生一些結(jié)果,這給了最大項更多的權(quán)重,給了D平方項更少的權(quán)重,此時,最大項在損失計算中占了優(yōu)勢。

使用封裝器函數(shù)實現(xiàn)對比損失函數(shù):

13.png

結(jié)論

在Tensorflow中沒有的損失函數(shù)都可以利用函數(shù)、包裝函數(shù)或類似的類來創(chuàng)建。

原文標題:

Creating custom Loss functionsusing TensorFlow 2

原文鏈接:

https://towardsdatascience.com/creating-custom-loss-functions-using-tensorflow-2-96c123d5ce6c

*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。

負離子發(fā)生器相關(guān)文章:負離子發(fā)生器原理
離子色譜儀相關(guān)文章:離子色譜儀原理


關(guān)鍵詞: Python

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉