為了搞懂AI的「腦回路」,騰訊走出了重要的一步
人工智能可以幫助我們進(jìn)行決策,但誰能來解釋 AI 做出的判斷對不對呢?
2020 年 6 月,杜克大學(xué)一項發(fā)表在 AI 頂會 CVPR 的研究曾經(jīng)引發(fā)人們的討論熱潮。一個名為 PULSE 的人工智能算法可以把加了馬賽克的人臉照片恢復(fù)成清晰的面部圖像。
PULSE 模型使用著名的生成對抗網(wǎng)絡(luò) StyleGAN 來生成高分辨率圖像,與其他方法相比生成的圖片效果更好,清晰度更高,細(xì)節(jié)也更加豐富。
不過人們在測試之后也發(fā)現(xiàn)了一些問題,比如你把美國前總統(tǒng)奧巴馬的打碼照片交給 AI,它會將其還原成一個白人:
在 PULSE 的「偏見」被曝光后,人工智能社區(qū)瞬間被引爆,項目作者首先給出了回應(yīng),表示出現(xiàn)這種情況可能是因為 StyleGAN 的訓(xùn)練數(shù)據(jù)集,也有可能存在其他未知因素。
人工智能領(lǐng)域的先驅(qū),圖靈獎獲得者 Yann LeCun 對此甚至還在社交網(wǎng)絡(luò)上和人們論戰(zhàn),他先是解釋為什么 PULSE 會出現(xiàn)這樣的偏見,但并未引來普遍的認(rèn)同。
之后 Yann LeCun 又在多條推文中解釋了自己關(guān)于偏見的立場,由此引發(fā)的討論遠(yuǎn)遠(yuǎn)超出技術(shù)的范疇。
對此,從事數(shù)據(jù)科學(xué)領(lǐng)域超過十年的 Luca Massaron 認(rèn)為,盡管從技術(shù)角度來看 Yann LeCun 是完全正確的,但看看這種觀點被拋出之后公眾的反應(yīng),你就會知道談?wù)撍嵌嗝吹拿舾小?/p>
PULSE 還只是一項學(xué)術(shù)研究,去年在 Facebook 的推薦算法中,包含黑人與白人平民和警察發(fā)生爭執(zhí)的片段被標(biāo)記為「有關(guān)靈長類動物的視頻」的事件引發(fā)了軒然大波,臉書一度禁用了視頻推薦功能并道歉。
在獲得廣泛應(yīng)用的背后,由于 AI 是由大規(guī)模數(shù)據(jù)驅(qū)動,無需闡明推理邏輯性的方法,所作出的「統(tǒng)計規(guī)律」判斷經(jīng)常會受到人們的質(zhì)疑。
可解釋性,AI 的發(fā)展的重要方向
深度學(xué)習(xí)的運行機(jī)制難以理解,對于 AI 工程師們來說就像「煉丹」——難以溯因,難以調(diào)參,對于大眾和監(jiān)管機(jī)構(gòu)而言則是個「黑箱」——不知如何運作,也不知它給出的結(jié)果是否公正。
雖然并非所有人工智能系統(tǒng)都是黑盒,AI 也并不比傳統(tǒng)形式的軟件更加不可解釋,但在人工智能模型復(fù)雜度直線上升的今天,問題正在逐漸變得明顯,AI 越來越先進(jìn),我們面臨的挑戰(zhàn)也越來越大。
人們一直在各個方向上,為 AI 技術(shù)的可解釋性而努力著。
2010 年,吳恩達(dá)等人在 Google AI 發(fā)表的「識別貓」研究中,神經(jīng)網(wǎng)絡(luò)通過樣本學(xué)習(xí)理解了貓的概念,通過特征可視化方法我們可以看到算法學(xué)習(xí)的結(jié)果。
近年來,各國面對人工智能技術(shù)落地的政策著重強(qiáng)調(diào)了保護(hù)隱私和可解釋性。2018 年 5 月,有「史上最嚴(yán)格的隱私和數(shù)據(jù)保護(hù)法」之稱的歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)正式生效。該法案被稱為是 20 年來數(shù)據(jù)隱私條例的最重要變化,同時,有關(guān)「算法公平性」的條款要求所有公司必須對其算法的自動決策進(jìn)行解釋。
在我國,去年 8 月通過的《個人信息保護(hù)法》第 24 條也明確要求必須確保自動化決策的透明度和結(jié)果公正。
如何才能讓人工智能在帶來便利的同時保證可解釋性?這意味著我們需要構(gòu)建起可信的 AI 體系。在業(yè)界看來,在 AI 技術(shù)應(yīng)用時考慮可解釋性,需要考慮公平性并消除偏見,減小模型漂移,實行風(fēng)險管理,在模型部署的全生命周期進(jìn)行持續(xù)監(jiān)控,最終形成的工具體系需要在多種不同硬件環(huán)境下部署。
可解釋 AI 并非算法模型中某個獨立的環(huán)節(jié)或具體工具,要想構(gòu)建可解釋 AI,就需要在 AI 模型整個生命周期的每個步驟持續(xù)介入,在每個環(huán)節(jié)都構(gòu)建不同的可解釋方法。近幾年來,眾多科技企業(yè)紛紛加大投入,構(gòu)建了各種可解釋 AI 相關(guān)工具和服務(wù)。
在 AI 模型構(gòu)建的數(shù)據(jù)準(zhǔn)備階段,微軟提出了 Datasheets for Datasets,用于記錄數(shù)據(jù)集的創(chuàng)建、組成、預(yù)期用途、維護(hù)等屬性,關(guān)注數(shù)據(jù)集是否存在偏見。
而谷歌提出的 Model Cards 工具包則主要關(guān)注模型的部署和監(jiān)控環(huán)節(jié),可報告機(jī)器學(xué)習(xí)模型的出處、效果和道德信息評估,對算法本身的表現(xiàn)提供解釋。
國內(nèi)的互聯(lián)網(wǎng)企業(yè)也在采取行動。比如,美團(tuán)在去年 9 月發(fā)布文章,公開了關(guān)于配送時間的四種評估算法,介紹了預(yù)估送達(dá)時間背后的算法邏輯。
從機(jī)制上來看,業(yè)內(nèi)實現(xiàn)算法可解釋的主流方式有「事前可解釋性」(Ante-hoc)和「事后可解釋性」(Post-hoc)兩種。顧名思義,前者使用的算法結(jié)構(gòu)相對簡單,可以通過觀察模型本身來理解模型的決策過程,又可稱之為「內(nèi)在可解釋模型」。事后可解釋方法則是給定訓(xùn)練好的模型及數(shù)據(jù),嘗試?yán)斫饽P皖A(yù)測的原理。目前業(yè)界流行的大部分 AI 可解釋機(jī)制屬于事后可解釋的范疇。
構(gòu)建 AI 系統(tǒng)的說明書
人工智能技術(shù)發(fā)展到現(xiàn)在,人們大多數(shù)時間都在性能上應(yīng)用上作努力,如今對于可解釋 AI 的研究可以說才剛剛開始。我們不能為了追求效率忽視 AI 系統(tǒng)的公平性和透明度,也不應(yīng)該完全反過來,對新技術(shù)簡單持不接受態(tài)度。
1 月 11 日,在騰訊舉行的科技向善創(chuàng)新周活動中,騰訊研究院、騰訊天衍實驗室、騰訊優(yōu)圖、Tencent AI Lab 等機(jī)構(gòu)聯(lián)合完成的《可解釋 AI 發(fā)展報告 2022——打開算法黑箱的理念與實踐》正式發(fā)布。
該報告用超過三萬字的篇幅,對于可解釋 AI 的現(xiàn)狀進(jìn)行了概述,展望了這一領(lǐng)域的發(fā)展趨勢。此外,該報告對可解釋 AI 未來的方向提出了一些看法。
從 1 月 17 日起,該報告可在騰訊研究院的微信公眾號下載。
報告鏈接(或點擊文末「閱讀原文」):https://docs.qq.com/pdf/DSmVSRHhBeFd0b3Zu
報告指出,在不同的領(lǐng)域,面對不同的對象,人工智能解釋的深淺與目標(biāo)都存在區(qū)別。在對于 AI 可解釋性要求相對較高的醫(yī)療、教育、金融、自動駕駛等領(lǐng)域中,存在不同的解釋方法;另一方面,對于監(jiān)管、終端用戶和開發(fā)者來說,對于可解釋性的需求也各不相同。這意味著可解釋 AI 是一個龐雜的領(lǐng)域,需要業(yè)界和學(xué)界共同努力,構(gòu)建一個完整的體系。
同時,對 AI 應(yīng)用系統(tǒng)的透明性與可解釋性要求,需要考慮效率、安全、隱私、網(wǎng)絡(luò)安全、知識產(chǎn)權(quán)保護(hù)等目的平衡,界定不同場景的最小可接受標(biāo)準(zhǔn),必要時采取常規(guī)監(jiān)測、人工審核等機(jī)制,不應(yīng)僅限于算法的可解釋性。
來自業(yè)界、學(xué)界的專家均對《可解釋 AI 發(fā)展報告 2022》的發(fā)布表示歡迎:
「可解釋的 AI 好比一個老師在大學(xué)里面教課——我們需要注意跟學(xué)生的互動,講的東西學(xué)生得聽懂,聽了得有受益。這就需要我們和學(xué)生之間有更多的了解,」微眾****首席人工智能官楊強(qiáng)說道?!溉斯ぶ悄懿皇枪铝⒋嬖诘?,它必須在和人互動的情況下才能產(chǎn)生效果。這份報告開了一個好頭,在這個基礎(chǔ)上我們可以展開長期的研究?!?/p>
除了行業(yè)研究,騰訊近年來也在可解釋 AI 技術(shù)方面有了諸多成果。
自 2014 年起,深度學(xué)習(xí)技術(shù)發(fā)生了巨大的進(jìn)步,識別準(zhǔn)確率從 96.3% 提升到了 99.5%,直接促成了人臉識別技術(shù)的實用化。最近疫情期間,需要用到人臉識別做身份驗證的場景越來越多。在騰訊支持的健康碼上,一年累計亮碼次數(shù)已超過 240 億次。
騰訊優(yōu)圖實驗室在人臉識別任務(wù)中構(gòu)建了非監(jiān)督的訓(xùn)練方式。在驗證交互過程中對圖片的選擇進(jìn)行了優(yōu)化。在特征層面上,算法又引入了馮 · 米塞斯分布來對人臉特征進(jìn)行建模,將模型學(xué)到的特征表示為概率分布,在圖像識別的過程中,AI 除了輸出相似度之外,還可以輸出自信度,為人們提供了額外的解釋。
優(yōu)圖提出的可解釋人臉識別技術(shù)。
騰訊覓影《肺炎 CT 影像輔助分診及評估軟件》是騰訊首款獲得國家****品監(jiān)督管理局第三類醫(yī)療器械注冊證的輔助診斷軟件產(chǎn)品。其可用于肺部 CT 影像的顯示、處理、測量和肺炎病灶識別,并不單獨給出對患者的診斷意見,而是采取與人類醫(yī)生結(jié)合的方式進(jìn)行診斷。
這種方式大幅提高了醫(yī)生的工作效率,針對 AI 技術(shù)人員則滿足全局可解釋性。
騰訊天衍可信可解釋疾病風(fēng)險預(yù)測模型,其中綠色箭頭表示增強(qiáng)主要輸出可解釋性的輔助輸出。
此外,軟件研究資料中對于訓(xùn)練及測試數(shù)據(jù)的來源、數(shù)量、多維分布進(jìn)行了詳盡分析,可幫助開發(fā)者和用戶理解模型特性,消除因數(shù)據(jù)偏移而導(dǎo)致模型輸出結(jié)果問題的疑慮。
可解釋 AI 的未來
可解釋 AI 是一個新興的研究領(lǐng)域,現(xiàn)在還缺乏統(tǒng)一的理論框架和技術(shù)路線。我們現(xiàn)在也很難找到準(zhǔn)確率很高,同時可解釋性極好的算法。更多的時候,我們需要進(jìn)行效率與可解釋性之間的選擇。
從技術(shù)的角度看,深度學(xué)習(xí)可解釋性的矛盾就像 20 世紀(jì)初物理學(xué)中的「烏云」,反映了人們對于新發(fā)現(xiàn)事物理解的缺失。在這些方向的研究對于技術(shù)進(jìn)步將會起到巨大的推動作用。從方法上,研究人員正在通過理論和實驗兩條道路試圖理解算法運作的機(jī)制。
而在實踐過程中,我們需要注意到這一問題是多元性的:針對不同的算法、不同的領(lǐng)域和不同的受眾需要有不同的標(biāo)準(zhǔn)。
「可解釋性就像物理學(xué)定義的邊界函數(shù)——當(dāng)我們進(jìn)行優(yōu)化時,總要定義一個邊界的共識。可解釋就是既要對方理解,又要它的性能高,這是一件非常難的事。」楊強(qiáng)表示,「我認(rèn)為這會是一個長期存在的問題。解決方法或許是在一個細(xì)分領(lǐng)域里,根據(jù)領(lǐng)域知識來給予回答,為我們指明方向,進(jìn)而逐漸推廣。」
隨著技術(shù)的進(jìn)步和制度的完善,期待在不久的將來,我們能夠建立起一套完整可信的可解釋 AI 體系。
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。