危!「邪惡版」ChatGPT 出現(xiàn):每月 60 歐元,毫無道德限制,專為“網(wǎng)絡罪犯”而生?
近幾個月來,伴隨著 ChatGPT 的熱度暴漲,OpenAI 也不斷因 AI 的道德問題和數(shù)據(jù)安全隱患遭到多方質疑,甚至上周還受到了美國聯(lián)邦貿易委員會(FTC)的正式調查——這也是美國監(jiān)管機構首次正式發(fā)起對 AI 聊天機器人風險的審查。
而正當 OpenAI 因 ChatGPT 疲于應對各方審查時,一款“沒有道德界限或限制”的「邪惡版 ChatGPT」悄然在網(wǎng)絡上蔓延:WormGPT。
(圖片來源:Hacking forum)
「邪惡版 ChatGPT」,每月 60 歐元
根據(jù)網(wǎng)絡安全公司 SlashNext 博客報道,其團隊在研究生成式 AI 在網(wǎng)絡犯罪方面的潛在風險時,偶然發(fā)現(xiàn)了 WormGPT:“我們最近通過一個與網(wǎng)絡犯罪有關的著名在線論壇獲得了一個名為 ‘WormGPT’的工具,它是一個 GPT 模型的黑帽替代品。”
據(jù)了解,WormGPT 的收費標準是每月 60 歐元(約人民幣 479 元),而 SlashNext 對 WormGPT 的形容是:“專為惡意活動而設計”,簡直是“網(wǎng)絡罪犯的武器庫”。
WormGPT 由一位膽大的黑客設計,他寫道:“這個項目(WormGPT)旨在提供 ChatGPT 的替代方案,讓你做各種非法的事情,你能想到的所有與黑帽相關的事情,都可以用 WormGPT 完成?!睘榱俗C明他的說法,他還上傳了相關截圖,顯示用戶可要求機器人生成用 Python 編碼語言編寫的惡意軟件。
WormGPT 基于 2021 年開源的 LLM GPT-J 模型開發(fā),工作方式與 ChatGPT 大致相同:可處理人類自然語言提出的要求,并輸出所要求的任何內容,包括故事、摘要和代碼。但與 ChatGPT 或 Bard 不同的是,WormGPT 不用像 OpenAI 或谷歌這樣的大型公司那樣,必須要承擔相關的法律義務。
據(jù) SlashNext 介紹,WormGPT 在各種數(shù)據(jù)源上進行訓練,尤其集中在惡意軟件相關的數(shù)據(jù)上,加上輸出沒有道德限制,可以被要求執(zhí)行各種惡意任務,包括創(chuàng)建惡意軟件和“一切與黑帽有關的事情”,對于網(wǎng)絡犯罪分子而言無疑是一大利器。
對于 WormGPT,NordVPN 網(wǎng)絡安全專家 Adrianus Warmenhoven 的評價是“ChatGPT 的邪惡雙胞胎”,因為它顯然是從 OpenAI 對 ChatGPT 不斷施加限制、而攻擊者極力規(guī)避這些限制才衍生出來的。
為了全面評估 WormGPT 相關的潛在危險,SlashNext 團隊進行了以 BEC 攻擊(商業(yè)電子郵件泄露,一種通過電子郵件進行的社會工程學攻擊,攻擊者一般會偽造電子郵件消息以誘騙受害者執(zhí)行某些操作)為重點的測試:“在一次實驗中,我們要求 WormGPT 生成一封電子郵件,內容是向毫無戒心的賬戶經理施壓,迫使其支付虛假****?!?/span>
WormGPT 的輸出結果令 SlashNext 直呼危險:“結果令人非常不安。WormGPT 生成的電子郵件不僅極具說服力,而且在戰(zhàn)略上也非常狡猾,展示了它在復雜的網(wǎng)絡釣魚和 BEC 攻擊中的無限潛力。”
AI 加持下,新手將輕易實現(xiàn)詐騙
通過上面這個測試,SlashNext 總結道,類似于 WormGPT 這樣的生成式 AI 技術可能會帶來巨大威脅,因為有了這類工具的加持后,就連網(wǎng)絡犯罪新手都能輕易實現(xiàn)詐騙。
以 BEC 攻擊為例,使用生成式 AI 具有以下兩大優(yōu)勢:
(1)卓越的語法:生成式 AI 可以創(chuàng)建在語法上無懈可擊的電子郵件,使其看起來合法合理,被系統(tǒng)標記為可疑郵件的可能性會大幅降低。
(2)降低犯罪門檻:生成式 AI 的出現(xiàn),極大簡化了原本復雜的 BEC 攻擊,即便是技術有限的攻擊者也能使用生成式 AI,它將成為越來越多網(wǎng)絡犯罪分子可以使用的工具。
不過同時,針對生成式 AI 可能引發(fā)的大范圍 BEC 攻擊,SlashNext 也建議了兩種防范策略:
(1)進行 BEC 專項培訓:公司應制定廣泛的、定期更新的培訓計劃,以應對 BEC 攻擊,尤其是由 AI 增強的攻擊,要讓員工了解到 BEC 攻擊的威脅,以及 AI 將如何加大這種威脅的原理。
(2)強化電子郵件的驗證措施:為防范 AI 驅動的 BEC 攻擊,企業(yè)應執(zhí)行嚴格的電子郵件驗證流程,例如當有來自組織外部的電子郵件冒充內部高管或供應商時,系統(tǒng)要自動發(fā)出警報等。
AI 領域仍存在不少挑戰(zhàn)和局限性
而事實上,除了上文提到的 WormGPT 編寫惡意軟件、助力 BEC 攻擊以外,上個月 ChatGPT 的“奶奶漏洞”也證實了一個事實:盡管 OpenAI 等公司都對 AI 技術做出了許多限制措施,但目前還是無法完全避免這類漏洞的出現(xiàn)。
上個月,一位名為 Sid 的用戶發(fā)現(xiàn),只要讓 ChatGPT 扮演其過世祖母講睡前故事,就能順利騙出 Windows 10 Pro 密鑰。
經過 Sid 的分享后,越來越多用戶發(fā)現(xiàn)了這個漏洞,并開始嘗試欺騙 ChatGPT 報出 Windows 11 序列號,其中許多人都成功了。據(jù)了解,雖然這些密鑰大多是無效的,但有少量序列號也確實是真實可用的。
不論是 ChatGPT 的“奶奶漏洞”,還是“網(wǎng)絡犯罪分子專用”的 WormGPT 的出現(xiàn),都證明了至少現(xiàn)階段 AI 領域仍存在不少挑戰(zhàn)和局限性。為此,一方面,研究人員需繼續(xù)深入相關技術,在提高數(shù)據(jù)質量、優(yōu)化算法的同時,充分考慮倫理道德層面的影響。另一方面,作為用戶的我們也應時刻保持謹慎,避免對 AI 產生過度依賴。
參考鏈接:
https://slashnext.com/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/
https://www.pcgamer.com/chatgpts-evil-twin-wormgpt-is-devoid-of-morals-and-just-dollar60-a-month-on-the-darkweb/
*博客內容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。