新聞中心

EEPW首頁(yè) > 消費(fèi)電子 > 業(yè)界動(dòng)態(tài) > Google AI能自行發(fā)展加密技術(shù) 防止第三方窺探

Google AI能自行發(fā)展加密技術(shù) 防止第三方窺探

作者: 時(shí)間:2016-11-03 來(lái)源:Digitimes 收藏

  近年積極開(kāi)發(fā)自有人工智能()技術(shù),最新研究報(bào)告稱(chēng)該公司打造的實(shí)驗(yàn)系統(tǒng)已具備可自行設(shè)計(jì)加密演算法的能力,借此能夠達(dá)到保密目的,避免第三方窺探內(nèi)容。

本文引用地址:http://butianyuan.cn/article/201611/339654.htm

  這項(xiàng)研究成果稱(chēng)為“用對(duì)抗神經(jīng)密碼技術(shù)學(xué)習(xí)安全通訊”,旗下 Brain研究團(tuán)隊(duì)人員Martin Abadi及David Andersen在報(bào)告中,介紹神經(jīng)網(wǎng)路如何自行發(fā)展簡(jiǎn)單加密技術(shù)以防止第三方窺探的技術(shù),且過(guò)程中無(wú)需外部輸入特定加密演算法即可進(jìn)行。

  這套實(shí)驗(yàn)Google Brain設(shè)計(jì)了“Bob”、“Alice”及“Eve”三個(gè)神經(jīng)網(wǎng)路,由Alice及Bob之間彼此收發(fā)訊息,訓(xùn)練Alice將一串16位元由0與1組成的訊息傳送給Bob,Bob則必須嘗試對(duì)發(fā)送的訊息解密,但不讓Eve獲得這組訊息內(nèi)容,要由Eve試圖窺探并解碼該訊息。Alice與Bob之間則擁有一個(gè)共享金鑰,即所謂的對(duì)稱(chēng)加密。

  研究人員只給定上述假設(shè)實(shí)驗(yàn)情況,未指定Alice與Bob之間要以何種方法傳送訊息,所以上述所有都不知道如何進(jìn)行加密也不清楚應(yīng)使用何種加密技術(shù),僅透過(guò)可衡量損失及錯(cuò)誤程度的損失函數(shù)來(lái)判斷自身表現(xiàn),并不斷演進(jìn)出正確的方法。

  Alice、Bob及Eve都是采用相同的混合與轉(zhuǎn)換神經(jīng)網(wǎng)路,初始化皆是獨(dú)立進(jìn)行,Google研究人員在單顆繪圖芯片(GPU)系統(tǒng)中以TensorFlow反覆進(jìn)行這項(xiàng)實(shí)驗(yàn),由Alice不斷發(fā)送訊息給Bob接收及解讀,同時(shí)Eve也嘗試進(jìn)行解讀。

  起初Bob及Eve的錯(cuò)誤率都很高,但隨著測(cè)試次數(shù)增加,兩者的錯(cuò)誤率都逐漸下降,約進(jìn)行到5,000~1萬(wàn)步(step)之間的測(cè)試次數(shù)后,Eve的錯(cuò)誤率開(kāi)始減少,Bob更是大幅下降,不過(guò)1萬(wàn)步后當(dāng)Alice與Bob改變加密方法后,Eve的錯(cuò)誤率又開(kāi)始攀升。

  到了1.5萬(wàn)步后Bob的錯(cuò)誤率已降至幾近0,Eve的錯(cuò)誤率則仍有一定程度,由此顯示Eve只是在進(jìn)行隨機(jī)猜測(cè),Alice與Bob之間則已改善及發(fā)展出彼此能夠秘密通訊、防止Eve偷窺的方式。

  Google研究人員未詳細(xì)分析Alice與Bob之間設(shè)計(jì)的是何種加密演算法,最后僅得出結(jié)論指出,神經(jīng)網(wǎng)路確實(shí)能夠進(jìn)行通訊內(nèi)容傳輸?shù)淖晕曳雷o(hù),且只需與Alice說(shuō)明保密的重要性高于一切即可,無(wú)需事先告知要以何種加密演算法進(jìn)行保密。另一方面從Eve的實(shí)驗(yàn)結(jié)果看來(lái),Google研究人員則認(rèn)為神經(jīng)網(wǎng)路成為密碼分析專(zhuān)家的機(jī)率不高。未來(lái)Google還將針對(duì)其他加密演算法進(jìn)行實(shí)驗(yàn)。



關(guān)鍵詞: Google AI

評(píng)論


相關(guān)推薦

技術(shù)專(zhuān)區(qū)

關(guān)閉