AI算法復(fù)制人類大腦功能?這種AI正通過三種方式欺騙你!
針對人工智能(AI)算法的網(wǎng)絡(luò)攻擊新聞已不再罕見,現(xiàn)在幾乎每天都在發(fā)生。研究人員發(fā)現(xiàn),無論是在實驗室環(huán)境還是在實踐中,算法都十分脆弱。在許多頭條新聞中,我們看到人臉識別系統(tǒng)可能被特殊眼鏡和黑客操縱的醫(yī)療應(yīng)用程序欺騙,比如AI癌癥診斷系統(tǒng)。
本文引用地址:http://butianyuan.cn/article/201907/403250.htmAI的進(jìn)步、新神經(jīng)網(wǎng)絡(luò)的構(gòu)成以及神經(jīng)科學(xué)新模型的出現(xiàn)都表明,我們正在接近這樣的現(xiàn)實,即AI算法可以復(fù)制大腦功能。盡管這些技術(shù)還遠(yuǎn)遠(yuǎn)不夠完美,但AI和人類大腦有許多驚人的相似之處,尤其是在圖像處理技術(shù)方面。
最近,科學(xué)家們發(fā)現(xiàn),黑客不僅可以對神經(jīng)網(wǎng)絡(luò)發(fā)起對抗性攻擊,也可以對人類發(fā)起類似攻擊。通過某些操作,他們成功地對狗的圖像進(jìn)行了修改,讓人們誤以為它是貓。然后,科學(xué)家們又改變了蛇的圖像,使它看起來像蜘蛛,反之亦然。
這項研究之所以引起了我的注意,是因為它提供了很好的例子,我們可以把它付諸實踐,檢查各種情況下發(fā)生欺騙的可能性。這促使我做了個實驗,調(diào)查人們對這些照片的反應(yīng),尤其是那些患有蜘蛛恐懼癥的人。喜歡蛇的人(同時也對蜘蛛有很深的恐懼)看到蜘蛛變成蛇的畫面會感到不舒服。
然而,當(dāng)他們意識到照片中的主體確實是蜘蛛時,他們的不安變成了恐懼。這些實驗表明,這種類型的對抗性攻擊可以在潛意識中發(fā)揮作用。也就是說,某個人沒有意識到圖片有什么問題,就像算法不能識別攻擊一樣。
因此,當(dāng)涉及到對抗性攻擊和網(wǎng)絡(luò)安全時,我們必須考慮到,即使是人類的眼睛,這個復(fù)雜的器官和長期進(jìn)化的產(chǎn)物,也無法抵御這種攻擊。從這個意義上說,很容易看出對感官的攻擊可以與對算法的攻擊進(jìn)行比較。
雖然神經(jīng)語言程序設(shè)計(NLP)還沒有得到科學(xué)的證實,但對語言或其他感官的對抗性攻擊可能與這個領(lǐng)域有關(guān)。事實上,對AI的隱私攻擊可以被視為吐真藥或催眠,讓我們研究以下幾種AI欺騙人類大腦的示例:
閾下知覺廣告
深度學(xué)習(xí)模型可以通過大量的圖像數(shù)據(jù)集進(jìn)行訓(xùn)練,從而根據(jù)一張照片來識別一個人的信任水平。使用AI進(jìn)行對抗性攻擊可以創(chuàng)建任何人最“可靠”的照片,并提高受眾的信任水平。
我們所需要的只是改變一張照片,這樣照片才能激發(fā)信任。它可以被用于廣告,由于照片的快速調(diào)整,你會更容易吸引客戶青睞!
利用音頻
現(xiàn)在,讓我們來看看音頻信息和語音感知的過程。當(dāng)我們聽到某個詞,沒有上下文我們無法解釋它的意思時,我們經(jīng)常會在腦海中產(chǎn)生幾個猜測。當(dāng)我們聽到一個句子的結(jié)尾時,我們的大腦會固定信息,并推斷出某個單詞的最終含義。這種機(jī)制類似于遞歸神經(jīng)網(wǎng)絡(luò)中基于注意力的模型。
在我們解密信息之前,沒有上下文存在的所有含義都會在某種程度上被下意識地處理掉,它們會對我們的思維產(chǎn)生輕微的影響。如果人類的大腦能夠識別由多義詞組合而成的句子的不同可能含義,人們就能在不經(jīng)意的情況下接收到平行乃至互相矛盾的命令。而巨大的數(shù)據(jù)集可以自動化這個過程,并創(chuàng)建具有隱藏雙重含義的文本。
AI支持的測謊儀
我再舉個例子——隱私攻擊,就是試圖揭露某個人隱藏的信息。在交流中,人們傾向于使用面部表情、身體姿勢、手勢和眼神來推斷意思。肢體語言往往能或明或暗地透露說話人的心理狀態(tài)、情緒和感受。事實上,有許多類似的隱藏數(shù)據(jù)泄漏通道,如體溫、瞳孔大小、輻射水平或人類呼吸出的化學(xué)成分。
如果有人構(gòu)建了一個精確的設(shè)備,能夠捕捉所有這些隱藏的通道,他們就能讀懂人類對外界刺激的反應(yīng),比如圖像和挑釁的問題。這與神經(jīng)網(wǎng)絡(luò)上的隱私攻擊類似,攻擊者測試不同的輸入數(shù)據(jù)來訪問信息。
自我保護(hù)措施
對人類的潛意識攻擊,如我提到的例子,通常是很可怕的。最糟糕的是,它們不是憑空想象出來的,而且可以在任何時候?qū)嵤?。有了這些建議,你可以武裝自己,抵御這些攻擊:
——仔細(xì)檢查你所使用媒體中的所有關(guān)鍵信息,并對你發(fā)送的信息進(jìn)行反復(fù)審核;
——學(xué)習(xí)心理學(xué),并了解大腦是如何工作的,然后把這些知識應(yīng)用到你每天看到的視覺刺激上;
——不要在社交媒體上發(fā)布過多不必要的個人信息,你肯定不希望有額外的數(shù)據(jù)可以提供給黑客有針對性的信息。
如果將來我們可以戴上特殊的眼鏡或助聽器來保護(hù)自己免受音頻或視覺網(wǎng)絡(luò)攻擊,我對此不會感到驚訝。但在此之前,使用這些策略將是非常重要的,盡可能多地了解AI及其不那么光彩的用例,以確保自己和公司的安全。請記住,只要對這些應(yīng)用有更多的了解,與那些沒有相同知識的人相比,就就具備了很大的優(yōu)勢。
評論