這是一個好問題:既然機器可以學(xué)習(xí),它們能忘掉嗎?
很多公司都使用機器學(xué)習(xí)來分析人們的欲望、厭惡或面孔。研究人員提出了一個不同的問題:我們?nèi)绾巫寵C器忘記學(xué)習(xí)?
機器學(xué)習(xí)正在尋找如何在人工智能軟件中誘發(fā)選擇性失憶的方法。目標是從機器學(xué)習(xí)系統(tǒng)中刪除特定人員或數(shù)據(jù)點的所有痕跡,而不影響其性能。
如果該功能可以實現(xiàn),這個概念可以更好地讓人們控制他們的數(shù)據(jù)和產(chǎn)生的價值。盡管用戶已經(jīng)可以要求一些公司刪除個人數(shù)據(jù),但他們并不清楚算法是如何調(diào)整這些信息。機器忘掉學(xué)習(xí)卻有可能讓一個人撤回他們的數(shù)據(jù)和公司獲利的方法。
該方法對于那些想刪除網(wǎng)上分享的內(nèi)容來說很直觀,但人工健忘癥的概念需要計算機科學(xué)方面的一些新想法。
你認為這個想法可以實現(xiàn)嗎?
這些公司花費數(shù)百萬美元訓(xùn)練機器學(xué)習(xí)算法來識別面孔或?qū)ι缃惶舆M行排名,算法比手動編碼人員可以更快地解決問題。但一旦經(jīng)過訓(xùn)練,機器學(xué)習(xí)系統(tǒng)就不會輕易改變,甚至不會被理解。消除特定數(shù)據(jù)點影響的傳統(tǒng)方法是從頭開始重建系統(tǒng),這是一項代價高昂的工作。
賓夕法尼亞大學(xué)機器學(xué)習(xí)的教授亞倫羅斯表示“這項研究旨在找到一些中間立場,當(dāng)他們要求刪除數(shù)據(jù)時,我們能否消除他們數(shù)據(jù)的所有影響,同時避免從頭開始重新訓(xùn)練的全部成本?”
機器取消學(xué)習(xí)的工作部分是由于人們關(guān)注到人工智能可能侵犯隱私的方式。長期以來,世界各地的數(shù)據(jù)監(jiān)管機構(gòu)都有權(quán)強制公司刪除不良信息。例如歐盟和加利福尼亞州的公民,如果他們對披露的內(nèi)容改變了主意,他們有權(quán)要求公司刪除他們的數(shù)據(jù)。最近,美國和歐洲的監(jiān)管機構(gòu)表示,人工智能系統(tǒng)有時必須更進一步:刪除針對敏感數(shù)據(jù)進行訓(xùn)練的系統(tǒng)。
“當(dāng)他們要求刪除數(shù)據(jù)時,我們能否消除他們數(shù)據(jù)的所有影響,同時避免從頭開始重新訓(xùn)練的全部成本?”
去年,英國數(shù)據(jù)監(jiān)管機構(gòu)警告,一些機器學(xué)習(xí)軟件可能會受到 GDPR 權(quán)利的約束,例如數(shù)據(jù)刪除,因為 AI 系統(tǒng)可能包含個人數(shù)據(jù)。安全研究人員已經(jīng)表明,算法有時會被迫泄露其創(chuàng)建中使用的敏感數(shù)據(jù)。今年年初,美國聯(lián)邦貿(mào)易委員會迫使面部識別公司 Paravision 刪除了一系列以不當(dāng)方式獲取的面部照片和用它們訓(xùn)練的機器學(xué)習(xí)算法。FTC 專員 Rohit Chopra 稱贊這種新的執(zhí)法策略是一種迫使違反數(shù)據(jù)規(guī)則的公司“喪失其欺騙成果”的方式。
取消機器學(xué)習(xí)研究的小領(lǐng)域正在努力解決這些監(jiān)管轉(zhuǎn)變帶來的一些實際和數(shù)學(xué)問題。研究人員已經(jīng)表明,他們可以讓機器學(xué)習(xí)算法在某些條件下忘記,但該技術(shù)尚未準備好。
“對于一個年輕的領(lǐng)域來說很常見,這個領(lǐng)域渴望做的事情與我們現(xiàn)在知道如何做的事情之間存在差距,”羅斯說。
多倫多大學(xué)和威斯康星大學(xué)麥迪遜分校的研究人員在 2019 年時,提出了一種很有前景的方法是將新機器學(xué)習(xí)項目的源數(shù)據(jù)分成多個部分。單獨處理每個,然后將結(jié)果組合到最終的機器學(xué)習(xí)模型中。如果需要忘記一個數(shù)據(jù)點,則只需重新處理原始輸入數(shù)據(jù)的一小部分。該方法被證明適用于在線購買數(shù)據(jù)和超過一百萬張照片的集合。
Roth 和來自賓夕法尼亞大學(xué)、哈佛大學(xué)和斯坦福大學(xué)的合作者最近證明了這種方法的一個缺陷,表明如果提交的刪除請求以特定的順序出現(xiàn),無論是偶然的還是來自惡意行為者,學(xué)習(xí)系統(tǒng)都會崩潰。并且他們還展示了如何緩解這個問題。
滑鐵盧大學(xué)教授 Gautam Kamath 也致力于取消學(xué)習(xí),他說該項目發(fā)現(xiàn)并解決的問題是,關(guān)于如何使機器取消學(xué)習(xí)不僅僅是實驗室好奇心的許多懸而未決的問題的一個例子。他自己的研究小組一直在探索通過連續(xù)取消學(xué)習(xí)多個數(shù)據(jù)點來降低系統(tǒng)準確性的程度。
Kamath 還對尋找方法讓公司證明——或監(jiān)管機構(gòu)來檢查——系統(tǒng)真的忘記了它應(yīng)該忘記的東西。“感覺好像還有一段路要走,但也許他們最終會為這類事情配備審計員,”他說。
隨著 FTC 和其他機構(gòu)仔細研究算法的力量,調(diào)查解除機器學(xué)習(xí)可能性的監(jiān)管理由可能會增加。牛津大學(xué)研究數(shù)據(jù)保護的教授魯本·賓斯 (Reuben Binns) 表示,近年來在美國和歐洲,個人應(yīng)該對其數(shù)據(jù)的命運和成果有發(fā)言權(quán)的觀念越來越多。
在科技公司真正實施機器學(xué)習(xí)之前,需要精湛的技術(shù)工作,讓人們更好地控制其數(shù)據(jù)的算法命運。即便如此,該技術(shù)可能不會對人工智能時代的隱私風(fēng)險產(chǎn)生太大影響。
差分隱私是一種巧妙的技術(shù),可以對系統(tǒng)泄漏的個人信息進行數(shù)學(xué)限制,提供了有用的比較。蘋果、谷歌和微軟都對這項技術(shù)贊不絕口,但使用相對較少,隱私風(fēng)險仍然很多。
Binns 說,雖然它確實很有用,但“在其他情況下,它更像是一家公司所做的事情,以表明它正在創(chuàng)新?!彼麘岩蓹C器取消學(xué)習(xí)可能會證明是相似的,與其說是數(shù)據(jù)保護的重大轉(zhuǎn)變,不如說是對技術(shù)敏銳度的展示。即使機器學(xué)會忘記,用戶也必須記住要小心與誰共享數(shù)據(jù)。
參考鏈接:
https://www.wired.com/story/machines-can-learn-can-they-unlearn/
本文由AI科技大本營翻譯,轉(zhuǎn)載請注明出處。
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。
濾波器相關(guān)文章:濾波器原理
濾波器相關(guān)文章:濾波器原理