博客專欄

EEPW首頁 > 博客 > 為了把 Deepfake 關(guān)進(jìn)籠子,各大公司都拼了

為了把 Deepfake 關(guān)進(jìn)籠子,各大公司都拼了

發(fā)布人:硅星人 時(shí)間:2022-06-04 來源:工程師 發(fā)布文章

Google Colab 終于宣布禁止 deepfake 項(xiàng)目

文|杜晨    編輯 | Vicky Xiao     題圖來源:谷歌、@MaYiLong0


曾幾何時(shí),deepfake 在互聯(lián)網(wǎng)上格外猖獗,新聞和成人類內(nèi)容成為了“換臉”的重災(zāi)區(qū)。

由于受眾廣泛,市面上有不少現(xiàn)成的 deepfake 算法,供用戶使用,如 DeepFaceLab  (DFL) 和 FaceSwap。并且,由于深度學(xué)習(xí)技術(shù)的普及,也有一些低成本甚至免費(fèi)的在線具,可以訓(xùn)練這些算法,從而讓好事之徒達(dá)到其目的。

常用的工具之一就是谷歌的 Colab,一個(gè)免費(fèi)的托管式 Jupyter 筆記本服務(wù)。簡單來說,用戶可以在 Colab 的網(wǎng)頁界面上運(yùn)行復(fù)雜的代碼,“白用l”谷歌的 GPU 集群,從而訓(xùn)練那些依賴高性能硬件的深度學(xué)習(xí)項(xiàng)目。

不過就在本月,谷歌終于對 colab 在線訓(xùn)練 deepfake 痛下殺手。

前不久,DFL-Colab 項(xiàng)目的開發(fā)者 chervonij 發(fā)現(xiàn),谷歌本月中下旬將 deepfake  加入到了 Colab 的禁止項(xiàng)目列表當(dāng)中:

圖片

圖片來源:谷歌

chervonij 還表示,他最近嘗試用 Colab 運(yùn)行自己的代碼的時(shí)候,遇到了如下的提示:

“您正在執(zhí)行被禁止的代碼,這將有可能影響您在未來使用 Colab 的能力。請查閱FAQ頁面下專門列出的禁止行為。”

圖片

圖片來源:DFL Discord 頻道

然而這個(gè)彈出提示只是做出警告,并沒有完全禁止,用戶仍然可以繼續(xù)執(zhí)行代碼 (continue anyway)。

有用戶發(fā)現(xiàn),這次谷歌的行動(dòng)應(yīng)該是主要針對 DFL 算法的,考慮到 DFL 是目前網(wǎng)絡(luò)上 deepfake 行為最常采用的算法。與此同時(shí),另一個(gè)沒那么流行,的 deepfake 算法 FaceSwap 就比較幸運(yùn),仍然可以在 Colab 上運(yùn)行且不會彈出提示。

FaceSwap 聯(lián)合開發(fā)者 Matt Tora 接受 Unite.ai 采訪時(shí)表示,自己并不認(rèn)為谷此舉是出于道德目的

“Colab 是一個(gè)偏向 AI 教育和研究方向的工具。用它來進(jìn)行規(guī)模化的 deepfake 項(xiàng)目的訓(xùn)練,和 Colab 的初衷背道而馳。”

他還補(bǔ)充表示,自己的 FaceSwap 項(xiàng)目的重要目的就是通過 deepfake 來教育用戶關(guān)于 AI 和深度學(xué)習(xí)模型的運(yùn)行原理,言外之意可能這才是 FaceSwap 沒有被 Colab 針對的理由。

“出于保護(hù)計(jì)算資源,讓真正需要的用戶能夠獲取這些資源的目的,我理解谷歌的這一舉動(dòng)?!?br />

Colab 未來是否將會完全禁止 deepfake 類項(xiàng)目的執(zhí)行?對于不聽勸的用戶會有怎樣的懲罰?目前谷歌并未對此次修改作出回應(yīng),這些問題也暫時(shí)沒有答案。

不過我們可以確定的是,谷歌肯定是不希望 Colab 這樣一個(gè)出于公益目的,提供免費(fèi)訓(xùn)練資源的平臺,被 deepfake 開發(fā)者濫用。

Google Research 將 Colab 免費(fèi)開放給廣大用戶,目的是降低深度學(xué)習(xí)訓(xùn)練的硬件成本門檻,甚至讓幾乎沒有編程知識背景的用戶也能輕松上手——也即所謂的 AI 普及化 (democratization of AI)。

由于區(qū)塊鏈行業(yè)的爆發(fā)增長,以及疫情的次生影響,當(dāng)今全球芯片(特別是 GPU) 很大程度上仍然處于斷供狀態(tài)。所以如果是為了節(jié)約資源而禁用 Colab 運(yùn)行 deepfake 項(xiàng)目,確實(shí)可以理解。

不過除了 deepfake 之外,Colab 禁止的其它行為當(dāng)中也的確包括大眾認(rèn)知的惡意行為,比如運(yùn)行黑客攻擊、暴力破解密碼等。

| deepfake 使用門檻變高?

在過去相當(dāng)長一段時(shí)間里,對于初入門和中等水平的 deepfake 視頻創(chuàng)作者來說,想要實(shí)現(xiàn)一般可接受畫質(zhì)(480p或720p以上)的內(nèi)容輸出,自己卻沒有足夠的硬件配置的話,那么 Colab 幾乎是唯一的正確選擇。

畢竟 Colab 界面簡單,上手輕松,訓(xùn)練性能達(dá)到可以接受的水平,而且還免費(fèi),沒有理由不用。前面提到的一些 deepfake 算法項(xiàng)目也都針對 Colab 提供了代碼支持。

要討論 deepfake,很難避開新聞?chuàng)Q臉視頻和成人換臉內(nèi)容。硅星人發(fā)現(xiàn),DFL 主項(xiàng)目頁面直接新聞視頻換臉作為主要使用場景之一,并且頁面中引導(dǎo)的一些用戶社群也都默許明星或私人復(fù)仇式 (revenge porn) 的換臉成人內(nèi)容,使得此類內(nèi)容大量存在。

圖片

現(xiàn)如今谷歌決定禁止 deepfake 類項(xiàng)目在 Colab 上運(yùn)行,勢必將對私人的 deepfake 內(nèi)容制作造成不小的打擊。

因?yàn)檫@意味著那些初級和中級 deepfake 制作者將失去一個(gè)最重要的免費(fèi)工具,讓他們繼續(xù)制作此類內(nèi)容的成本顯著提高。

不過據(jù)領(lǐng)域內(nèi)一些內(nèi)幕人士表示,那些最頂級的,將 deepfake 當(dāng)作一門生意的專業(yè)制作者,已經(jīng)基本實(shí)現(xiàn)了完全“自主生產(chǎn)”。

這群人通過非法銷售及會員募捐等方式,賺到了不少錢,可以投資更加高級的設(shè)備。現(xiàn)在他們可以制作分辨率、清晰和臉部原度更高的 deepfake 視頻,從而不用依賴 Colab 以及云計(jì)算等在線服務(wù),就能實(shí)現(xiàn)穩(wěn)定生產(chǎn)和營收。

舉個(gè)例子:想要實(shí)現(xiàn)2k甚至4k分辨率和60fps的幀率,并且單片單次渲染用時(shí)在可以接受的范圍(比如幾天)的話,需要一個(gè)龐大的渲染農(nóng)場,至少10臺電腦,每臺兩張支持 SLI 技術(shù)的英偉達(dá) RTX 高端顯卡,以及上百GB的內(nèi)存。這樣下來僅單臺的購置成本就已經(jīng)相當(dāng)高了,更別提還要算上運(yùn)轉(zhuǎn)時(shí)的電費(fèi)(渲染、冷卻等),可以說是一筆相當(dāng)大的投資。

很遺憾,對于這群人來說,谷歌的新政策對他們完全起不到作用。只有全社會對 deepfake 帶來的負(fù)面影響提升重視,整個(gè)科技行業(yè)都行動(dòng)起來,deepfake 的濫用問題才能得到解決。

| 把 deepfake 關(guān)進(jìn)籠子里,各國、各大公司都在行動(dòng)

谷歌

這的確不是谷歌第一次出面打擊 deepfake 內(nèi)容制作了。在2019年,Google Research 就發(fā)表過一個(gè)大型視頻數(shù)據(jù)集。其背后谷歌在自己內(nèi)部通過制作 deepfake 視頻的方式,從而試圖了解相關(guān)算法的工作原理。

對于谷歌來說,它需要提高識別 deepfake 的能力,從而在商業(yè)化產(chǎn)品環(huán)境里(最典型的就是 YouTube 用戶視頻上傳),從源頭上切斷惡意換臉視頻的傳播途徑。以及,第三方公司也可以使用谷歌開放的這個(gè)數(shù)據(jù)集來訓(xùn)練 deepfake 探測器。

圖片

不過,近幾年 Google Research 確實(shí)沒有花太多心思在打擊 deepfake 上。反而,該公司最近推出的 Imagen,一個(gè)超高擬真度的文字生成圖片模型,效果非常驚人,反倒是引發(fā)了一些批評。

圖片

Imagen 文字轉(zhuǎn)圖片的效果   圖片來源:谷歌

微軟

微軟研究院在2020年共同推出了一項(xiàng) deepfake 探測技術(shù),名為 Microsoft Video Authenticator。它能夠檢測畫面中的渲染邊界當(dāng)中灰階數(shù)值的不正常變化,對視頻內(nèi)容進(jìn)行逐幀實(shí)時(shí)分析,并且生成置信度分?jǐn)?shù) (confidence score)。

微軟也在和包括紐時(shí)、BBC、加拿大廣播公司等頂級媒體合作,在新聞行業(yè)的場景下對 Video Authenticator 的能力進(jìn)行檢測。

與此同時(shí),微軟也在 Azure 云計(jì)算平臺中加入了媒體內(nèi)容元數(shù)據(jù) (metadata) 校驗(yàn)的技術(shù)。通過這一方式,那些被修改過的視頻內(nèi)容可以和原視頻的進(jìn)行元數(shù)據(jù)比對——和下載文件的時(shí)候比對 MD5 值差不多意思。

Meta

2020年,F(xiàn)acebook 宣布在 Facebook 產(chǎn)品平臺全面禁止 deepfake 類視頻。

然而這個(gè)政策執(zhí)行得并不徹底。比如,目前在 Instagram 上還可以經(jīng)常見到那個(gè)著名的中國翻版馬斯克 deepfake 視頻(主要是從 TikTok 上轉(zhuǎn)發(fā)過來的)。

圖片

圖片來源:MaYiLong0|TikTok

行業(yè)層面,Meta、亞馬遜 AWS、微軟、MIT、UC伯克利、牛津大學(xué)等公司和機(jī)構(gòu)在2019年共同發(fā)起了一個(gè) deepfake 檢測挑戰(zhàn)賽,鼓勵(lì)更多、更優(yōu)、更與時(shí)俱進(jìn)的檢測技術(shù)。

Twitter:

2020年 Twitter 封殺了一批經(jīng)常發(fā)布 deepfake 視頻的賬號。不過對于其它 deepfake 內(nèi)容,Twitter 并沒有完全限制,而是會打上一個(gè)標(biāo)簽“被修改的內(nèi)容”(manipulated media),并且提供第三方事實(shí)核查機(jī)構(gòu)的檢測結(jié)果。

圖片

創(chuàng)業(yè)公司:

OARO MEDIA:西班牙公司,提供一套對內(nèi)容進(jìn)行多樣化數(shù)字簽名的工具,從而減少deepfake 等被修改過的內(nèi)容傳播對客戶造成的負(fù)面影響。

Sentinel:位于愛沙尼亞,主要開發(fā) deepfake 內(nèi)容檢測模型。

圖片

Quantum+Integrity:瑞士公司,提供一套基于 API 的 SaaS 服務(wù),可以進(jìn)行各種基于圖像類的檢測,能力包括視頻會議實(shí)時(shí) deepfake、截屏或圖片“套娃”、虛假身份證件等。

圖片

國家(立法和行政)

中國:2020年印發(fā)的《法治社會建設(shè)實(shí)施綱要(2020 - 2025年)》進(jìn)一步要求,對深度偽造等新技術(shù)應(yīng)用,制定和完善規(guī)范管理辦法。

美國:2019年正式簽署生效的2020財(cái)年國防批準(zhǔn)法當(dāng)中包含了和 deepfake 相關(guān)的條文,主要是要求政府向立法機(jī)構(gòu)通報(bào)涉及跨國、有組織、帶有政治目的的 deepfake 虛假信息行為。

加州、紐約州和伊利諾伊州都有自己的 deepfake 相關(guān)法律,主要目的是保護(hù) deepfake 受害者的權(quán)益。

歐盟:GDPR、歐盟人工智能框架提議、版權(quán)保護(hù)框架、虛假信息針對政策等高級別法律文件,都對可能和 deepfake 有關(guān)的事務(wù)實(shí)現(xiàn)了交叉覆蓋。不過,整個(gè)區(qū)域級別目前并沒有專門針對 deepfake 的法律和政策。

在成員國級別上,荷蘭立法機(jī)構(gòu)在2020年曾經(jīng)要求政府制定打擊 deepfake 成人視頻的政策,以及表示會考慮將相關(guān)問題寫入該國刑法。



*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: Deepfake

技術(shù)專區(qū)

關(guān)閉