博客專欄

EEPW首頁 > 博客 > 突發(fā)!ChatGPT被微軟內(nèi)部禁用!

突發(fā)!ChatGPT被微軟內(nèi)部禁用!

發(fā)布人:傳感器技術(shù) 時間:2023-11-13 來源:工程師 發(fā)布文章
ChatGPT最近被微軟內(nèi)部禁用!GPTs新bug:數(shù)據(jù)只要兩句提示詞就能套走


來源:量子位 | 公眾號 QbitAI 楊凈 宇衡 發(fā)自 凹非寺

注意!你創(chuàng)建GPTs時上傳的數(shù)據(jù),任何人都能輕易下載……只需兩句提示詞,就可被直接套走!而又在另一邊,OpenAI最親密盟友微軟內(nèi)部一度緊急禁用,網(wǎng)站上顯示的理由正是:

出于安全和數(shù)據(jù)方面的考慮,許多AI工具不再供員工使用。

自定制版GPT上線以來,各路大神分享自己GPTs整活鏈接。結(jié)果有網(wǎng)友一個不小心竟扒出了其中某個GPTs背后知識庫文件,里面各種科技大廠職級薪資的數(shù)據(jù)直接曝光……只需幾句再簡單不過的提示詞,GPTs就會乖巧地如數(shù)上傳。有網(wǎng)友表示:這是新的安全漏洞嗎?不少人開始為企業(yè)定制擔憂。值得注意的是,就連OpenAI最親密盟友微軟,都曾暫時取消過對ChatGPT的內(nèi)部訪問

數(shù)據(jù)和提示詞都被泄漏

按照之前的說法,用戶可深度定制機器人的身份、語言特征,以及建立自有知識庫。只需要在GPT Builder的引導之下用自然語言來描述,他能自動完成除了自有知識庫以外的大部分設(shè)置。定制過后的GPTs可以自己用,也可以將鏈接分享給他人。但問題就出現(xiàn)在這里。一開發(fā)者用他們?yōu)長evels.fyi創(chuàng)建了基本GPT,可分析數(shù)據(jù)可視化,并開放鏈接對外使用。結(jié)果就被網(wǎng)友發(fā)現(xiàn)只需問上幾句,就可以下載文件。一時間網(wǎng)友們都驚呆了:這應(yīng)該是限制的吧?
但也有人認為這不是bug,而是他的功能。文件中的數(shù)據(jù)應(yīng)該是公開的。還有熱心的網(wǎng)友直接給出了解決方案:在設(shè)置時Uncheck代碼解釋器的能力。不過即使沒被別人下,你上傳的數(shù)據(jù)也會變成OpenAI護城河的水。除此之外,還有網(wǎng)友發(fā)現(xiàn),你的提示詞說明文本也可能會被泄漏出來。不過也有解決方式,那就是在自定義時就可以明確設(shè)置規(guī)則,然后就可以成功阻止了。

微軟內(nèi)部限制ChatGPT訪問

亮相3天后,就在昨天,GPTs面向付費用戶全量開放了。OpenAI官方是在GPTs頁面準備了一些定制版機器人供用戶使用的,比如數(shù)學導師、烹飪助手、談判專家等。但這遠遠滿足不了用戶們的好奇心,不到一天時間,開發(fā)者們已經(jīng)用這個功能做了很多稀奇古怪的東西。正經(jīng)嚴肅的,有能幫助人主動書寫prompt的、簡歷修改的。稍微整活的,量子位觀察到有“爹味言論打分”,能幫用戶有力回擊討厭的PUA說教。再玄學一點,還有具備諸如MBTI 16人格分析、塔羅牌占卜的等等……總之,大伙玩兒得不亦樂乎。但由于現(xiàn)在仍然有3小時50條的限制,不少網(wǎng)友無奈感慨,玩GPTs,很容易每日觸發(fā)這個數(shù)量限制。不過也有網(wǎng)友仍持有保留態(tài)度,認為這會像此前ChatGPT出場即巔峰,而后會逐漸歸于平靜期。與此同時,馬斯克旗幟鮮明表達了對GPTs的態(tài)度,那就是對GPTs的不屑 一 顧。他直接引用奧特曼用GPTs手搓Grok的推特,不客氣地把“GPTs”解讀為“GPT-Snore”。作為另一款大模型Grok的背后老板,一貫嘴炮全開的馬斯克如此陰陽怪氣,好像并不太稀奇。最令人睜大眼睛的,還得是前天——也就是OpenAI被黑客攻擊的那一天,微軟一度禁止員工使用ChatGPT。是的沒錯,微軟,OpenAI最大合作伙伴、股東,禁止員工訪問ChatGPT。據(jù)悉,微軟在其內(nèi)部網(wǎng)站上寫道:

出于安全和數(shù)據(jù)考慮,員工今后將無法使用部分AI工具。

什么AI工具呢?點名的就是ChatGPT和設(shè)計網(wǎng)站Canva。而后,ChatGPT在微軟員工的內(nèi)部設(shè)備上被屏蔽。不僅如此,微軟當時還表示,雖然咱確實投資了OpenAI,但對于微軟人來說,ChatGPT是第三方工具。員工使用時應(yīng)當慎之又慎,就像大伙兒使用Midjourney等外部AI工具時一樣。不過這個禁止令并沒有持續(xù)太久。很快,員工對ChatGPT的訪問已經(jīng)恢復,并且官方聲明稱,這只是一次美麗的誤會,but還是推薦大家用Bing(doge)。

我們正在測試LLM的終端控制系統(tǒng),無意中面向所有用戶開啟了該選項。在發(fā)現(xiàn)錯誤后不久,我們恢復了服務(wù)。> >正如我們之前所說,我們鼓勵員工和客戶使用Bing Chat Enterprise和ChatGPT Enterprise等具有更高級別隱私和安全保護的服務(wù)。

不知道是不是為了打破外界“貌合神離”的傳言,奧特曼還親自發(fā)了個推特,證明OpenAI并沒有因為這個事件產(chǎn)生心理波動,傳言的OpenAI因此禁用Microsoft 365作為回擊更是無稽之談。但這一系列事件說來說去,繞不開“隱私”“數(shù)據(jù)安全”還是這個議題。也就是說在現(xiàn)在,不僅僅是巨頭、公司發(fā)現(xiàn)使用ChatGPT/GPTs有“內(nèi)部數(shù)據(jù)共享”的隱患,如上文提到的,創(chuàng)業(yè)者、開發(fā)者甚至普通用戶,也發(fā)現(xiàn)了這個問題擺在面前。因此新一輪的討論就此如火如荼地展開了:如果任何用戶在GPTs上傳的數(shù)據(jù)、文檔等不能保證私有性,該怎么邁出商業(yè)化的下一步呢?對于想要打造ChatGPT時代“App Store”的OpenAI來說,這似乎并不太妙。但一切剛剛開始,不妨看看OpenAI的后續(xù)補救措施,讓子彈再飛一會。


來源:量子位



*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: ChatGPT

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉