AI的張良計(jì)與過墻梯
在今年的3·15上,果不其然AI被點(diǎn)名了。拋去屬于“質(zhì)量問題”的虛假智能產(chǎn)品以外,更引人關(guān)注還要數(shù)“智能騷擾電話”。相關(guān)報(bào)道提到,一些所謂的“大數(shù)據(jù)企業(yè)”通過WiFi探針識(shí)別到連接無限網(wǎng)絡(luò)的手機(jī)。然后,在用戶完全不知情的情況下獲取用戶的私人MAC信息,再將MAC轉(zhuǎn)換為手機(jī)號(hào)碼,與大數(shù)據(jù)相互“匹配”,再利用仿真人的AI機(jī)器人進(jìn)行外呼。
本文引用地址:http://butianyuan.cn/article/201903/398704.htm這其中,AI參與的環(huán)節(jié)其實(shí)只有最后的外呼一步。其原理和智能語音客服沒有差別,都是通過語音生成技術(shù)替代人力,實(shí)現(xiàn)廣泛的高效騷擾。
被曝光后,很多人開始討論起AI的倫理問題、AI的負(fù)面效應(yīng)等等。
可我們只想說一句:這才哪兒到哪兒啊!
AI技術(shù)有幾個(gè)顯著的特點(diǎn),比如足以替代人類的超高識(shí)別效率,又比如對(duì)于圖像、聲音強(qiáng)大的模仿能力和生成能力,加上日益提升的理解能力。這一切足以讓AI成為“天生的騙子”,這一次3·15所揭露出的,僅僅是冰山一角而已。
砍平門檻:AI如何讓我們的世界門戶大開?
今天,我們就可以從AI的幾項(xiàng)能力上來看看,那些已經(jīng)出現(xiàn)在我們身邊,已經(jīng)即將到來的AI行騙方式。
首先是高效的識(shí)別能力。
利用機(jī)器識(shí)別出一段語音、一張圖片或是一張面孔,本來與行騙一事關(guān)聯(lián)不大。但這種能力破解的是一種以效率增加行騙作惡成本的保護(hù)機(jī)制。
就拿發(fā)騷擾郵件、騷擾短信這件事來說,當(dāng)同一個(gè)IP的行為太過頻繁時(shí),驗(yàn)證碼機(jī)制的加入可以拖緩發(fā)送效率,讓行騙者無法使用腳本進(jìn)行自動(dòng)發(fā)送。
而AI圖像識(shí)別的出現(xiàn),就徹底破壞了這一機(jī)制。在2017年曝光過的“1·03”網(wǎng)絡(luò)“黑產(chǎn)”系列專案中,黑客就是用AI的圖像識(shí)別能力識(shí)別圖片驗(yàn)證碼,識(shí)別正確率高達(dá)95%以上。在此平臺(tái)被打掉的前3個(gè)月,已經(jīng)提供驗(yàn)證碼識(shí)別服務(wù)259億次。
如此一來,行騙成本和難易程度都被大大降低,為后續(xù)的行為創(chuàng)造了極大的空間。
信任崩塌:當(dāng)AI可以制造幻覺
在踩進(jìn)門檻之后,AI的學(xué)習(xí)能力便成為了最大的威脅。當(dāng)眼見不能為實(shí),耳聽也可能為虛時(shí),我們?cè)灸軌驊?yīng)用上的驗(yàn)證方法便會(huì)立即失效。
這其中有最臭名昭著的AI換臉:去年曾經(jīng)有開發(fā)者在社區(qū)中分享自己利用深度神經(jīng)網(wǎng)絡(luò)將影片中女主角臉部替換的過程,只需要在視頻網(wǎng)站上找到替換對(duì)象各個(gè)角度的照片和視頻,進(jìn)行數(shù)據(jù)標(biāo)注,再利用TensorFlow上模型對(duì)原視頻女主的表情、口型進(jìn)行學(xué)習(xí),就可以在數(shù)據(jù)庫中找到對(duì)應(yīng)的圖像和視頻進(jìn)行替換。
前幾天驚艷四座的“楊冪換臉朱茵版黃蓉”,也應(yīng)用的是類似的技術(shù)。這便意味著,也許很快在我們接到視頻電話時(shí),連對(duì)方熟悉的相貌都不能相信。
也許大家會(huì)覺得,雖然AI能夠攻破內(nèi)容,但視頻、電話等等整個(gè)溝通過程還是相對(duì)安全的??蓪?shí)際上,通過對(duì)語音的模仿在微信上進(jìn)行詐騙的事件已經(jīng)開始發(fā)生在我們身邊。
去年的燕趙都市報(bào)曾經(jīng)報(bào)道過一樁案件,一位女士在微信上接到父親的微信消息,稱需要借款,該女士要求父親發(fā)送語音驗(yàn)證,結(jié)果自己聽到的卻是犯罪分子通過語音生成技術(shù)模仿的聲音。
而且語音模仿的門檻要比圖像模仿的門檻低很多,就拿科大訊飛曾在2018年展示過的聲紋技術(shù)識(shí)別來說,只需要一分鐘的語料,就能夠惟妙惟肖的模仿出對(duì)方的聲音。
評(píng)論