全新算法助機器學(xué)習(xí)抵抗干擾
機器學(xué)習(xí)模型受到攻擊將產(chǎn)生嚴重的后果,但如果對這一情形提前預(yù)防呢?就像人類針對即將到來的病毒去接種疫苗一樣。據(jù)澳大利亞聯(lián)邦科學(xué)與工業(yè)研究組織(CSIRO)官方網(wǎng)站消息,該機構(gòu)的一個研究團隊,日前開發(fā)了一套人工智能(AI)最新算法,可幫助機器學(xué)習(xí)抵御可能遇到的干擾。
本文引用地址:http://www.butianyuan.cn/article/201907/402344.htm機器學(xué)習(xí)是人工智能的核心,也是使計算機具有智能的根本途徑。機器學(xué)習(xí)主旨是讓計算機去模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識或技能,并重新組織已有的知識結(jié)構(gòu),使之不斷改善自身的性能。
機器學(xué)習(xí)雖然可以在大數(shù)據(jù)訓(xùn)練中學(xué)到正確的工作方法,但它也很容易受到惡意干擾。通常攻擊者是通過輸入惡意數(shù)據(jù)來“欺騙”機器學(xué)習(xí)模型,導(dǎo)致其出現(xiàn)嚴重故障。
此次,開發(fā)出新算法的研究團隊——“Data61”機器學(xué)習(xí)小組領(lǐng)導(dǎo)者理查德·諾克表示,攻擊者會在進行圖像識別時,在圖像上添加一層干擾波,達到“欺騙”的目的,從而讓機器學(xué)習(xí)模型產(chǎn)生錯誤的圖像分類。
諾克及其團隊成員研發(fā)的新算法,通過一種類似疫苗接種的思路,可以幫助機器學(xué)習(xí)“修煉”出抗干擾能力。這是針對機器學(xué)習(xí)模型打造的防干擾訓(xùn)練,譬如,在圖片識別領(lǐng)域,該算法能夠?qū)D片集合進行微小的修改或使其失真,激發(fā)出機器學(xué)習(xí)模型“領(lǐng)會”到越來越強的抗干擾能力,并形成相關(guān)的自我抗干擾訓(xùn)練模型。
經(jīng)過此類小規(guī)模的失真訓(xùn)練后,最終的抗干擾訓(xùn)練模型將更加強大,當真正的攻擊到來之時,機器學(xué)習(xí)模型將具備“免疫”功能。
評論