博客專欄

EEPW首頁 > 博客 > CVPR2021深度框架訓(xùn)練:不是所有數(shù)據(jù)增強都可以提升最終精度

CVPR2021深度框架訓(xùn)練:不是所有數(shù)據(jù)增強都可以提升最終精度

發(fā)布人:CV研究院 時間:2021-09-16 來源:工程師 發(fā)布文章

數(shù)據(jù)增強(DA)是訓(xùn)練最先進的深度學(xué)習(xí)系統(tǒng)的必要技術(shù)。在今天分享中,實證地表明數(shù)據(jù)增強可能會引入噪聲增強的例子,從而在推理過程中損害非增強數(shù)據(jù)的性能。


一、前言&簡要

為了緩解上述問題,有研究者提出了一種簡單而高效的方法,稱為保持增強(KeepAugment),以提高增強圖像的保真度。其主要思想是首先使用顯著性map來檢測原始圖像上的重要區(qū)域,然后在增強過程中保留這些信息區(qū)域。這種信息保護策略使我們能夠生成更忠實的訓(xùn)練示例。

1.png

在實驗上,也證明了該方法在一些現(xiàn)有的技術(shù)數(shù)據(jù)增強方案上有了顯著的改進,例如:自動增強、裁剪、隨機擦除,在圖像分類、半監(jiān)督圖像分類、多視點多攝像機跟蹤和目標(biāo)檢測等方面取得了很好的效果。

二、知識回顧

首先我們回一下什么叫“數(shù)據(jù)增強”?

數(shù)據(jù)增強(Data Augmentation)是一種通過讓有限的數(shù)據(jù)產(chǎn)生更多的等價數(shù)據(jù)來人工擴展訓(xùn)練數(shù)據(jù)集的技術(shù)。它是克服訓(xùn)練數(shù)據(jù)不足的有效手段,目前在深度學(xué)習(xí)的各個領(lǐng)域中應(yīng)用廣泛。但是由于生成的數(shù)據(jù)與真實數(shù)據(jù)之間的差異,也不可避免地帶來了噪聲問題。

為什么需要數(shù)據(jù)增強?

深度神經(jīng)網(wǎng)絡(luò)在許多任務(wù)中表現(xiàn)良好,但這些網(wǎng)絡(luò)通常需要大量數(shù)據(jù)才能避免過度擬合。遺憾的是,許多場景無法獲得大量數(shù)據(jù),例如醫(yī)學(xué)圖像分析。數(shù)據(jù)增強技術(shù)的存在是為了解決這個問題,這是針對有限數(shù)據(jù)問題的解決方案。數(shù)據(jù)增強一套技術(shù),可提高訓(xùn)練數(shù)據(jù)集的大小和質(zhì)量,以便您可以使用它們來構(gòu)建更好的深度學(xué)習(xí)模型。在計算視覺領(lǐng)域,生成增強圖像相對容易。即使引入噪聲或裁剪圖像的一部分,模型仍可以對圖像進行分類,數(shù)據(jù)增強有一系列簡單有效的方法可供選擇,有一些機器學(xué)習(xí)庫來進行計算視覺領(lǐng)域的數(shù)據(jù)增強,比如:imgaug (https://github.com/aleju/imgaug)它封裝了很多數(shù)據(jù)增強算法,給開發(fā)者提供了方便。 

計算視覺數(shù)據(jù)增強

計算視覺領(lǐng)域的數(shù)據(jù)增強算法大致可以分為兩類:第一類是基于基本圖像處理技術(shù)技術(shù)的數(shù)據(jù)增強,第二個類別是基于深度學(xué)習(xí)的數(shù)據(jù)增強算法。下面先介紹基于基本圖像處理技術(shù)的數(shù)據(jù)增強方法:

1、flipping翻轉(zhuǎn)

一般都是水平方向翻轉(zhuǎn)而少用垂直方向,即鏡像變換。圖像數(shù)據(jù)集上證實有用(CIFAR-10,ImageNet等),但無法應(yīng)用在文本識別數(shù)據(jù)集(MNIST,SVHN等)

2、color space色彩空間

簡單做法是隔離單個色彩通道,例如R,G或B,此外可以通過簡單的矩陣運算以增加或減少圖像的亮度。更高級的做法從顏色直方圖著手,更改這些直方圖中的強度值(想到了圖像處理中的直方圖均衡)。

3、cropping裁剪

分統(tǒng)一裁剪和隨機裁剪。統(tǒng)一裁剪將不同尺寸的圖像裁剪至設(shè)定大小,隨機裁剪類似translation,不同之處在于translation保留原圖尺寸而裁剪會降低尺寸。裁剪要注意不要丟失重要信息以至于改變圖像標(biāo)簽。

4、rotation旋轉(zhuǎn)

要注意旋轉(zhuǎn)度數(shù)。以MNIST為例,輕微旋轉(zhuǎn)(例如1°-20°)可能有用,再往后增加時數(shù)據(jù)標(biāo)簽可能不再保留。

5、translation位置變換

向左,向右,向上或向下移動圖像可能是非常有用的轉(zhuǎn)換,以避免數(shù)據(jù)中的位置偏差。例如人臉識別數(shù)據(jù)集中人臉基本位于圖像正中,位置變換可以增強模型泛化能力。

6、noise injection添加噪聲

添加高斯分布的隨機矩陣

7、color space transformations色彩空間增強

照明偏差是圖像識別問題中最常見的挑戰(zhàn)之一,因此色彩空間轉(zhuǎn)換(也稱為光度轉(zhuǎn)換)的比較直觀有效。

①遍歷圖像以恒定值減少或增加像素值(過亮或過暗)

②拼接出(splice out)各個RGB顏色矩陣

③將像素值限制為某個最小值或最大值

④操作色彩直方圖以改變圖像色彩空間特征

注意將彩色圖轉(zhuǎn)換黑白雖然簡化了這些操作,但精度會降低

geometric versus photometric transformations幾何與光度轉(zhuǎn)換

1、kernel flters內(nèi)核過濾器

平滑和銳化,即圖像處理中用卷積核滑過整幅圖像的操作。這一點尚未開發(fā),它和CNN中卷積機制非常相似(就一樣啊),因此可以通過調(diào)整網(wǎng)絡(luò)參數(shù)更好地改善網(wǎng)絡(luò),而不需要額外進行這樣的數(shù)據(jù)增強操作。

2、mixing images圖像混合

做法是通過平均圖像像素值將圖像混合在一起:

2.jpg

mixing images

研究發(fā)現(xiàn)是當(dāng)混合來自整個訓(xùn)練集的圖像而不是僅來自同一類別的實例的圖像時,可以獲得更好的結(jié)果。其它一些做法:

①一種非線性方法將圖像組合成新的訓(xùn)練實例:

3.jpg

非線性方法

②另一方法是隨機裁剪圖像并將裁剪后的圖像連接在一起以形成新圖像:

4.jpg

隨機裁剪再拼接

這類方法從人的視角看毫無意義,但確實提升了精度。可能解釋是數(shù)據(jù)集大小的增加導(dǎo)致了諸如線和邊之類的低級特征的更可靠表示。

3、random erasing隨機擦除

這一點受到dropout正規(guī)化的啟發(fā),隨機擦除迫使模型學(xué)習(xí)有關(guān)圖像的更多描述性特征,從而防止過擬合某個特定視覺特征。隨機擦除的好處在于可以確保網(wǎng)絡(luò)關(guān)注整個圖像,而不只是其中的一部分。最后隨機擦除的一個缺點是不一定會保留標(biāo)簽(例如文本8->6)。

5.jpg

三、新方法

新方法控制數(shù)據(jù)增強的保真度,從而減少有害的錯誤信息。研究者的想法是通過顯著性映射測量圖像中矩形區(qū)域的重要性,并確保數(shù)據(jù)增強后始終呈現(xiàn)得分最高的區(qū)域:對于裁剪,通過避免切割重要區(qū)域(見下圖a5和b5);對于圖像級轉(zhuǎn)換,通過將重要區(qū)域粘貼到轉(zhuǎn)換圖像頂部(參見下圖a6和b6)。

6.png7.png

Eq2:

8.png

Eq3:

9.png10.png11.jpg

四、實驗

12.png13.png14.png15.png16.png

CIFAR-10:https://www.cs.toronto.edu/?kriz/cifar.html

open-source code:https://github.com/clovaai/CutMix-PyTorch

open-ReID:https://github.com/Cysu/open-reid

*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉