錯誤的推理:人工智能也會受騙
在智能識別的過程當(dāng)中,即便是性能最為優(yōu)越的AI也會因為系統(tǒng)缺陷而陷入迷局。著名學(xué)者、暢銷書Us and them : The Science of Identity的作者大衛(wèi)·貝雷比就表示,人工智能是可以被“欺騙”的,因為它們的內(nèi)置推理機制都是呈模型化狀態(tài)分布的。所以從這個角度來說,只要符合既定模型中的驗證條件,一些原本不符合要求的樣本也可能會被系統(tǒng)讀取和識別。這就是說,在智能化推理的過程當(dāng)中,人工智能也會出現(xiàn)“失誤”,而如何將這些失誤降到最低,就需要研究人員通過多種渠道來改善識別系統(tǒng)了。
本文引用地址:http://butianyuan.cn/article/201807/389761.htm關(guān)于人工智能在推理方面的錯誤,一個由美國高等學(xué)府和社會科研機構(gòu)組成的團隊做了一個非常有趣的實驗。工作人員先按照一定的標(biāo)準(zhǔn)開發(fā)出了一套可以識別圖像文字的神經(jīng)網(wǎng)絡(luò)模型,然后他們將經(jīng)過特殊化處理的圖片錄入到這個模型當(dāng)中去,命令人工智能系統(tǒng)對該圖片進行識別。如圖所示,以人類的肉眼來看,這兩張圖片應(yīng)該是不存在特征差異的。
但是對于這一套配備了特殊神經(jīng)網(wǎng)絡(luò)的人工智能來說,最終得到的結(jié)果卻是令人大跌眼鏡的:在本次測試當(dāng)中,AI系統(tǒng)將左邊的圖片認(rèn)定為“狗”,而右邊的圖像則被判定為“鴕鳥”。實際上,這兩張圖片之間僅僅是存在細(xì)微的像素差異,而鏡像本體和所使用的拍攝器材,都是完全一致的。這就是說,在本次實驗當(dāng)中,圖片像素的差異是誤導(dǎo)人工智能進行錯誤推理的直接原因。
與此類似,美國懷俄明大學(xué)計算機系助理教授杰夫·克魯聯(lián)合另外兩名研究者——阮昂和杰森·約辛斯基,共同論著了一篇關(guān)于人工智能的文章。在這篇名為“人工智能其實很好騙”的文章當(dāng)中,克魯舉例表示,他們共同研發(fā)了一套用于識別圖像的智能系統(tǒng)。當(dāng)研究者將一張呈條狀波浪形分布、主體為黃綠兩種顏色的圖片交給這套系統(tǒng)識別時,他們發(fā)現(xiàn),這套識別系統(tǒng)用99.6%的確定性,將這張“毫無主題的水彩畫”認(rèn)作了“海星”;而在面對另一張布滿雜亂混合斑點的圖片時,該AI系統(tǒng)再一次犯錯——它將圖示當(dāng)中的主體推論為“豹”,并對真實性做出了接近于100%的保證。
很顯然,“小狗實驗”和克魯主導(dǎo)的圖像識別實驗,都向人們反映出了這樣一個現(xiàn)象——人工智能在進行分析推理的過程當(dāng)中,也會受到來自模型缺陷的干擾。比如在克魯?shù)膶嶒灝?dāng)中,研究人員設(shè)定的識別模型,在樣本定義上必然是存在不足的。對此,另一位人工智能學(xué)者、來自普林斯頓大學(xué)的索倫·巴洛卡斯就認(rèn)為,克魯?shù)哪P彤?dāng)中沒有設(shè)定“生命”和“非生命”的限定,這就使得人工智能無法對一個樣本進行有效區(qū)分。
圖 克魯實驗:系統(tǒng)將左圖識別為海星,右圖識別為豹
巴洛卡斯解釋說:“就以那張布滿雜亂斑點的圖像來說,假如克魯團隊關(guān)于識別模型的設(shè)定限定了‘很多斑點=豹’這一規(guī)則,那么當(dāng)人們將這張圖片錄入到該模型當(dāng)中時,這個識別系統(tǒng)就會因為從圖片上檢測出很多斑點,進而做出‘此圖示為豹’的結(jié)論?!?/p>
可以看到,人工智能的邏輯推理是帶有強烈的程式化意味的。由于既定模型的局限性,即便是性能最為優(yōu)越的AI系統(tǒng)也會在判定時出現(xiàn)偏差。而在生活當(dāng)中,這一種推理機制帶來的缺陷,也很可能會為人們帶來極大的不便或者其他隱患。比如說在反入侵智能識別系統(tǒng)當(dāng)中,一些不懷好意的人就可以通過識別模型的漏洞,給自己偽裝上適配于該模型的裝置,然后就可以順利通過智能機關(guān)的檢驗。所以說,如何利用規(guī)則,回避類似漏洞就成了研究者們需要重點關(guān)注的話題。
顯然,在巴洛卡斯的話語當(dāng)中,我們已經(jīng)能剝離出部分解決人工智能因何被騙的誘導(dǎo)因素了。按照他的說法,AI系統(tǒng)之所以能針對未知事物進行判定推論,內(nèi)置在這一系統(tǒng)中的神經(jīng)網(wǎng)絡(luò)起到了關(guān)鍵性作用。而一旦這個網(wǎng)絡(luò)出現(xiàn)部分可被利用的漏洞,那么當(dāng)有“非正確的適應(yīng)性樣本”進入檢驗階段時,這個錯誤的樣本就會被接受并解讀出來。
比如說對于某一個神經(jīng)識別網(wǎng)絡(luò),我們設(shè)定以下規(guī)則:
(1)穿紅色衣服的學(xué)生每人得到1個蘋果
(2)穿黃色衣服的學(xué)生每人得到2個蘋果
(3)穿非紅色衣服的學(xué)生不分配蘋果
很顯然,第三條規(guī)則的介入,對整個評判體系產(chǎn)生了錯誤的影響。對于1名穿黃色衣服的同學(xué)來說,如果按照第二條規(guī)則來執(zhí)行分配,他就會得到2個蘋果;如果按照第三條規(guī)則來界定,他就被排除在了分配原則之外。而在一個神經(jīng)網(wǎng)絡(luò)中,類似沒有受到加權(quán)限制的規(guī)則,很可能會同時執(zhí)行,那么使用這一種網(wǎng)絡(luò)模型來分配蘋果,必然會出現(xiàn)一部分黃衣服學(xué)生持2個蘋果,另一部分黃衣服學(xué)生沒有分到蘋果的混亂現(xiàn)象。
所以說,在一個模型體系中,互相之間存在矛盾的因素,是會對這個模型帶來極大的負(fù)面效果的。針對這種情況,其實只要再加上一條“假如規(guī)則之間發(fā)生沖突,以規(guī)則(1)為準(zhǔn)”,這一切就迎刃而解了。
另外,在上述幾條規(guī)則當(dāng)中,同樣也存在沒有針對樣本進行深入限定的問題。比如有1名穿紅衣服的玩偶混雜在了待分配者中,那么AI系統(tǒng)也會按照既定條例,給這個玩偶發(fā)放1個蘋果。那么針對這一漏洞,設(shè)計者需要做的其實和之前一樣,那就是增設(shè)規(guī)則選項,將受分配者限定為“能夠呼吸的人類”。
所以說,人工智能受到欺騙,實際上更多因素是受制于內(nèi)置模型的缺陷。由于對樣本規(guī)則的限定缺漏,人工智能在推理的過程中也會受到各種誤導(dǎo)。由于識別系統(tǒng)的模式化,AI系統(tǒng)對于樣本的判定都是通過模型當(dāng)中的設(shè)定點來尋求對應(yīng)關(guān)系的,在這種條件下,部分不符合要求的結(jié)果,或許也能因為關(guān)鍵點的契合而順利通過。如果要解決這一問題,設(shè)計者就需要研發(fā)出更為精準(zhǔn)、驗證節(jié)點更多,或者是研發(fā)出以“線性”“面性”,甚至是“立體性”的驗證規(guī)則,而這就需要研究者進行更為深入的研究。
評論