為了把 Deepfake 關(guān)進(jìn)籠子,各大公司都拼了
Google Colab 終于宣布禁止 deepfake 項(xiàng)目
文|杜晨 編輯 | Vicky Xiao 題圖來源:谷歌、@MaYiLong0
曾幾何時(shí),deepfake 在互聯(lián)網(wǎng)上格外猖獗,新聞和成人類內(nèi)容成為了“換臉”的重災(zāi)區(qū)。
由于受眾廣泛,市面上有不少現(xiàn)成的 deepfake 算法,供用戶使用,如 DeepFaceLab (DFL) 和 FaceSwap。并且,由于深度學(xué)習(xí)技術(shù)的普及,也有一些低成本甚至免費(fèi)的在線工具,可以訓(xùn)練這些算法,從而讓好事之徒達(dá)到其目的。
常用的工具之一就是谷歌的 Colab,一個(gè)免費(fèi)的托管式 Jupyter 筆記本服務(wù)。簡單來說,用戶可以在 Colab 的網(wǎng)頁界面上運(yùn)行復(fù)雜的代碼,“白用l”谷歌的 GPU 集群,從而訓(xùn)練那些依賴高性能硬件的深度學(xué)習(xí)項(xiàng)目。
不過就在本月,谷歌終于對 colab 在線訓(xùn)練 deepfake 痛下殺手。
前不久,DFL-Colab 項(xiàng)目的開發(fā)者 chervonij 發(fā)現(xiàn),谷歌本月中下旬將 deepfake 加入到了 Colab 的禁止項(xiàng)目列表當(dāng)中:
圖片來源:谷歌
chervonij 還表示,他最近嘗試用 Colab 運(yùn)行自己的代碼的時(shí)候,遇到了如下的提示:
“您正在執(zhí)行被禁止的代碼,這將有可能影響您在未來使用 Colab 的能力。請查閱FAQ頁面下專門列出的禁止行為。”
圖片來源:DFL Discord 頻道
然而這個(gè)彈出提示只是做出警告,并沒有完全禁止,用戶仍然可以繼續(xù)執(zhí)行代碼 (continue anyway)。
有用戶發(fā)現(xiàn),這次谷歌的行動(dòng)應(yīng)該是主要針對 DFL 算法的,考慮到 DFL 是目前網(wǎng)絡(luò)上 deepfake 行為最常采用的算法。與此同時(shí),另一個(gè)沒那么流行,的 deepfake 算法 FaceSwap 就比較幸運(yùn),仍然可以在 Colab 上運(yùn)行且不會彈出提示。
FaceSwap 聯(lián)合開發(fā)者 Matt Tora 接受 Unite.ai 采訪時(shí)表示,自己并不認(rèn)為谷歌此舉是出于道德目的:
“Colab 是一個(gè)偏向 AI 教育和研究方向的工具。用它來進(jìn)行規(guī)模化的 deepfake 項(xiàng)目的訓(xùn)練,和 Colab 的初衷背道而馳。”
他還補(bǔ)充表示,自己的 FaceSwap 項(xiàng)目的重要目的就是通過 deepfake 來教育用戶關(guān)于 AI 和深度學(xué)習(xí)模型的運(yùn)行原理,言外之意可能這才是 FaceSwap 沒有被 Colab 針對的理由。
“出于保護(hù)計(jì)算資源,讓真正需要的用戶能夠獲取這些資源的目的,我理解谷歌的這一舉動(dòng)?!?br />
Colab 未來是否將會完全禁止 deepfake 類項(xiàng)目的執(zhí)行?對于不聽勸的用戶會有怎樣的懲罰?目前谷歌并未對此次修改作出回應(yīng),這些問題也暫時(shí)沒有答案。
不過我們可以確定的是,谷歌肯定是不希望 Colab 這樣一個(gè)出于公益目的,提供免費(fèi)訓(xùn)練資源的平臺,被 deepfake 開發(fā)者濫用。
Google Research 將 Colab 免費(fèi)開放給廣大用戶,目的是降低深度學(xué)習(xí)訓(xùn)練的硬件成本門檻,甚至讓幾乎沒有編程知識背景的用戶也能輕松上手——也即所謂的 AI 普及化 (democratization of AI)。
由于區(qū)塊鏈行業(yè)的爆發(fā)增長,以及疫情的次生影響,當(dāng)今全球芯片(特別是 GPU) 很大程度上仍然處于斷供狀態(tài)。所以如果是為了節(jié)約資源而禁用 Colab 運(yùn)行 deepfake 項(xiàng)目,確實(shí)可以理解。
不過除了 deepfake 之外,Colab 禁止的其它行為當(dāng)中也的確包括大眾認(rèn)知的惡意行為,比如運(yùn)行黑客攻擊、暴力破解密碼等。
| deepfake 使用門檻變高?
在過去相當(dāng)長一段時(shí)間里,對于初入門和中等水平的 deepfake 視頻創(chuàng)作者來說,想要實(shí)現(xiàn)一般可接受畫質(zhì)(480p或720p以上)的內(nèi)容輸出,自己卻沒有足夠的硬件配置的話,那么 Colab 幾乎是唯一的正確選擇。
畢竟 Colab 界面簡單,上手輕松,訓(xùn)練性能達(dá)到可以接受的水平,而且還免費(fèi),沒有理由不用。前面提到的一些 deepfake 算法項(xiàng)目也都針對 Colab 提供了代碼支持。
要討論 deepfake,很難避開新聞?chuàng)Q臉視頻和成人換臉內(nèi)容。硅星人發(fā)現(xiàn),DFL 主項(xiàng)目頁面直接把新聞視頻換臉作為主要使用場景之一,并且頁面中引導(dǎo)的一些用戶社群也都默許明星或私人復(fù)仇式 (revenge porn) 的換臉成人內(nèi)容,使得此類內(nèi)容大量存在。
現(xiàn)如今谷歌決定禁止 deepfake 類項(xiàng)目在 Colab 上運(yùn)行,勢必將對私人的 deepfake 內(nèi)容制作造成不小的打擊。
因?yàn)檫@意味著那些初級和中級 deepfake 制作者將失去一個(gè)最重要的免費(fèi)工具,讓他們繼續(xù)制作此類內(nèi)容的成本顯著提高。
不過據(jù)領(lǐng)域內(nèi)一些內(nèi)幕人士表示,那些最頂級的,將 deepfake 當(dāng)作一門生意的專業(yè)制作者,已經(jīng)基本實(shí)現(xiàn)了完全“自主生產(chǎn)”。
這群人通過非法銷售及會員募捐等方式,賺到了不少錢,可以投資更加高級的設(shè)備。現(xiàn)在他們可以制作分辨率、清晰度和臉部還原度更高的 deepfake 視頻,從而不用依賴 Colab 以及云計(jì)算等在線服務(wù),就能實(shí)現(xiàn)穩(wěn)定生產(chǎn)和營收。
舉個(gè)例子:想要實(shí)現(xiàn)2k甚至4k分辨率和60fps的幀率,并且單片單次渲染用時(shí)在可以接受的范圍(比如幾天)的話,需要一個(gè)龐大的渲染農(nóng)場,至少10臺電腦,每臺兩張支持 SLI 技術(shù)的英偉達(dá) RTX 高端顯卡,以及上百GB的內(nèi)存。這樣下來僅單臺的購置成本就已經(jīng)相當(dāng)高了,更別提還要算上運(yùn)轉(zhuǎn)時(shí)的電費(fèi)(渲染、冷卻等),可以說是一筆相當(dāng)大的投資。
很遺憾,對于這群人來說,谷歌的新政策對他們完全起不到作用。只有全社會對 deepfake 帶來的負(fù)面影響提升重視,整個(gè)科技行業(yè)都行動(dòng)起來,deepfake 的濫用問題才能得到解決。
| 把 deepfake 關(guān)進(jìn)籠子里,各國、各大公司都在行動(dòng)
谷歌
這的確不是谷歌第一次出面打擊 deepfake 內(nèi)容制作了。在2019年,Google Research 就發(fā)表過一個(gè)大型視頻數(shù)據(jù)集。其背后是谷歌在自己內(nèi)部通過制作 deepfake 視頻的方式,從而試圖了解相關(guān)算法的工作原理。
對于谷歌來說,它需要提高識別 deepfake 的能力,從而在商業(yè)化產(chǎn)品環(huán)境里(最典型的就是 YouTube 用戶視頻上傳),從源頭上切斷惡意換臉視頻的傳播途徑。以及,第三方公司也可以使用谷歌開放的這個(gè)數(shù)據(jù)集來訓(xùn)練 deepfake 探測器。
不過,近幾年 Google Research 確實(shí)沒有花太多心思在打擊 deepfake 上。反而,該公司最近推出的 Imagen,一個(gè)超高擬真度的文字生成圖片模型,效果非常驚人,反倒是引發(fā)了一些批評。
Imagen 文字轉(zhuǎn)圖片的效果 圖片來源:谷歌
微軟
微軟研究院在2020年共同推出了一項(xiàng) deepfake 探測技術(shù),名為 Microsoft Video Authenticator。它能夠檢測畫面中的渲染邊界當(dāng)中灰階數(shù)值的不正常變化,對視頻內(nèi)容進(jìn)行逐幀實(shí)時(shí)分析,并且生成置信度分?jǐn)?shù) (confidence score)。
微軟也在和包括紐時(shí)、BBC、加拿大廣播公司等頂級媒體合作,在新聞行業(yè)的場景下對 Video Authenticator 的能力進(jìn)行檢測。
與此同時(shí),微軟也在 Azure 云計(jì)算平臺中加入了媒體內(nèi)容元數(shù)據(jù) (metadata) 校驗(yàn)的技術(shù)。通過這一方式,那些被修改過的視頻內(nèi)容可以和原視頻的進(jìn)行元數(shù)據(jù)比對——和下載文件的時(shí)候比對 MD5 值差不多意思。
Meta
2020年,F(xiàn)acebook 宣布在 Facebook 產(chǎn)品平臺全面禁止 deepfake 類視頻。
然而這個(gè)政策執(zhí)行得并不徹底。比如,目前在 Instagram 上還可以經(jīng)常見到那個(gè)著名的中國翻版馬斯克 deepfake 視頻(主要是從 TikTok 上轉(zhuǎn)發(fā)過來的)。
圖片來源:MaYiLong0|TikTok
在行業(yè)層面,Meta、亞馬遜 AWS、微軟、MIT、UC伯克利、牛津大學(xué)等公司和機(jī)構(gòu)在2019年共同發(fā)起了一個(gè) deepfake 檢測挑戰(zhàn)賽,鼓勵(lì)更多、更優(yōu)秀、更與時(shí)俱進(jìn)的檢測技術(shù)。
Twitter:
2020年 Twitter 封殺了一批經(jīng)常發(fā)布 deepfake 視頻的賬號。不過對于其它 deepfake 內(nèi)容,Twitter 并沒有完全限制,而是會打上一個(gè)標(biāo)簽“被修改的內(nèi)容”(manipulated media),并且提供第三方事實(shí)核查機(jī)構(gòu)的檢測結(jié)果。
創(chuàng)業(yè)公司:
OARO MEDIA:西班牙公司,提供一套對內(nèi)容進(jìn)行多樣化數(shù)字簽名的工具,從而減少deepfake 等被修改過的內(nèi)容傳播對客戶造成的負(fù)面影響。
Sentinel:位于愛沙尼亞,主要開發(fā) deepfake 內(nèi)容檢測模型。
Quantum+Integrity:瑞士公司,提供一套基于 API 的 SaaS 服務(wù),可以進(jìn)行各種基于圖像類的檢測,能力包括視頻會議實(shí)時(shí) deepfake、截屏或圖片“套娃”、虛假身份證件等。
國家(立法和行政)
中國:2020年印發(fā)的《法治社會建設(shè)實(shí)施綱要(2020 - 2025年)》進(jìn)一步要求,對深度偽造等新技術(shù)應(yīng)用,制定和完善規(guī)范管理辦法。
美國:2019年正式簽署生效的2020財(cái)年國防批準(zhǔn)法當(dāng)中包含了和 deepfake 相關(guān)的條文,主要是要求政府向立法機(jī)構(gòu)通報(bào)涉及跨國、有組織、帶有政治目的的 deepfake 虛假信息行為。
加州、紐約州和伊利諾伊州都有自己的 deepfake 相關(guān)法律,主要目的是保護(hù) deepfake 受害者的權(quán)益。
歐盟:GDPR、歐盟人工智能框架提議、版權(quán)保護(hù)框架、虛假信息針對政策等高級別法律文件,都對可能和 deepfake 有關(guān)的事務(wù)實(shí)現(xiàn)了交叉覆蓋。不過,整個(gè)區(qū)域級別目前并沒有專門針對 deepfake 的法律和政策。
在成員國級別上,荷蘭立法機(jī)構(gòu)在2020年曾經(jīng)要求政府制定打擊 deepfake 成人視頻的政策,以及表示會考慮將相關(guān)問題寫入該國刑法。
*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請聯(lián)系工作人員刪除。