ChatGPT火了,OpenAI卻飄了?
根據(jù)ARK風險投資公司首席未來學(xué)家Brett Winton統(tǒng)計的數(shù)據(jù),ChatGPT日活量突破千萬,只用了不到兩個月的時間。作為對照,上一個現(xiàn)象級軟件Instagram達到這一成就花了355天。
1月中旬,《紐約時報》報道稱,北密歇根大學(xué)的哲學(xué)教授Antony Aumann在世界宗教課程評分時,驚喜地讀到了一篇“全班最好的論文”。學(xué)生用簡潔的段落、恰當?shù)呐e例和嚴謹?shù)恼摀?jù),探討了罩袍禁令的道德意義。然而,在Aumann的追問之下,學(xué)生承認論文用ChatGPT寫的。
類似的例子還有很多。
也正是隨著ChatGPT在全球范圍內(nèi)的爆火,OpenAI也被迅速推到了輿論的“風口浪尖”。
可以說,OpenAI目前處于聊天機器人軍備競賽的領(lǐng)頭地位。單以ChatGPT為例,公開發(fā)布和微軟數(shù)十億美元的合作不僅刺激了谷歌和亞馬遜緊急在產(chǎn)品線中布局人工智能,OpenAI還與貝恩合作,將機器學(xué)習(xí)引入可口可樂的運營,并計劃擴展到其他企業(yè)合作伙伴。
毫無疑問,OpenAI的人工智能已經(jīng)成了筆大生意,但其實這與OpenAI最初的計劃有些出入。
“人類的未來應(yīng)該由人類來決定”
上周五,OpenAI首席執(zhí)行官Sam Altman發(fā)表了一篇博文,題為“規(guī)劃AGI和超越”(Planning for AGI and beyond)。
文章鏈接:
https://openai.com/blog/planning-for-agi-and-beyond
在文章中,他宣稱OpenAI的通用人工智能(AGI)目前還遠沒達到要求,許多人懷疑它能否造福全人類,是否“有可能給每個人帶來令人難以置信的新能力”。
Altman用一種寬泛的、理想主義的語言來論證人工智能的發(fā)展不應(yīng)停止,“人類的未來應(yīng)該由人類來決定”,這里暗暗指向了OpenAI。
幾乎是在ChatGPT爆火的周期內(nèi),這篇博文和OpenAI近期的行動不斷提醒著大家,OpenAI的基調(diào)和使命與它成立時相比發(fā)生了多大的變化。
成立初期的OpenAI只是一個非營利組織。雖然公司一直著眼于AGI發(fā)展,但成立時他們承諾不追求利潤,免費分享開發(fā)代碼。
而今天,這些承諾已經(jīng)無處可尋。
OpenAI的動力變成了速度和利潤
2015年,Altman、馬斯克、Peter Thiel、Reid Hoffman宣布成立一家非營利性研究機構(gòu)OpenAI。在成立聲明中,OpenAI宣布,研究承諾“以最有可能造福全人類的方式推進人工智能,不受產(chǎn)生經(jīng)濟回報的限制”。該博客還稱,“由于我們的研究沒有財務(wù)義務(wù),可以更好地專注于對人類的積極影響”,并鼓勵所有研究人員分享“論文、博客文章或代碼,我們的專利(如果有的話)將與世界共享”。
8年后,我們面對的是一家既不透明也不以積極的人類影響為動力的公司。相反,正如包括馬斯克在內(nèi)的許多批評者所認為的那樣,OpenAI的動力變成了速度和利潤。
同時,OpenAI正在釋放技術(shù)。當然其中存在缺陷,但仍準備以犧牲人類員工為代價增加工作場所的自動化轉(zhuǎn)變。例如,谷歌強調(diào)了自動完成代碼的人工智能帶來的效率提升,從而導(dǎo)致數(shù)千名工人被裁。
OpenAI初期,媒體與從業(yè)者們都將其設(shè)想為以開放的方式進行基礎(chǔ)人工智能研究,目的不確定。聯(lián)合創(chuàng)始人Greg Bockman曾說:“我們現(xiàn)在的目標......是做最好的事情。這有點模糊不清”。
這也無形之中促成了公司在2018年方向的轉(zhuǎn)變。當時,OpenAI向資本資源尋求一些方向,“我們的主要受托責任是對人類。我們預(yù)計需要調(diào)集大量資源來完成我們的使命”。
到2019年3月,OpenAI已經(jīng)完全擺脫了其非盈利的頭銜,建立了一個“封頂利潤(capped profit)”部門。這使得OpenAI開始接受投資,并會為投資者提供封頂為投資100倍的利潤。
這項決定被視為是與谷歌等大科技公司的一次競爭,而不久后公司也如愿獲得了微軟10億美元的投資。在宣布成立營利性公司的博文中,OpenAI繼續(xù)使用相同的說法,宣稱其使命是“確保通用人工智能惠及全人類”。
但正如Motherboard寫道,當風險投資家的主要目標是利潤時,很難相信他們能拯救人類。
OpenAI還值得公眾的信任嗎?
2019年,OpenAI宣布和發(fā)布GPT-2語言模型時面臨了輿論反彈。
起初,該公司表示,由于“擔心該技術(shù)的惡意應(yīng)用”,它不會發(fā)布訓(xùn)練模型的源代碼。雖然這在一定程度上反映了其對開發(fā)有益人工智能的承諾,但它也不是很“開放”。
批評者想知道為什么OpenAI會在宣布了一個工具之后卻不發(fā)布,于是不少人認為這只是宣傳噱頭。直到三個月后,OpenAI才在GitHub上發(fā)布了該模型,并表示這一行動是“負責任地發(fā)布人工智能的一個重要基礎(chǔ),特別是在強大的生成模型方面”。
調(diào)查記者Karen Hao在2020年期間在公司內(nèi)部待了幾天,根據(jù)他的說法,OpenAI的內(nèi)部文化開始不再反映謹慎的、研究驅(qū)動的人工智能開發(fā)過程,而是更注重出人頭地,這也導(dǎo)致人們指責其助長了“人工智能炒作周期”。員工現(xiàn)在也被要求對手頭的工作保持沉默,以遵守公司新的章程。
“公司公開支持的內(nèi)容和閉門造車的方式之間存在著錯位。隨著時間的推移,它已經(jīng)允許激烈的競爭和不斷增加的資金壓力侵蝕其透明、開放和合作的創(chuàng)始理想?!盚ao寫道。
但總的來說,GPT-2的推出對OpenAI而言無疑是一件值得慶祝的事,也是公司發(fā)展至今的重要基石?!斑@絕對是成功故事框架的一部分”,現(xiàn)任政策研究主管Miles Brundage在一次會議上說,“這一部分的劇情應(yīng)該是這樣的:我們做了一件雄心勃勃的事情,現(xiàn)在有些人正在復(fù)制它,這里還應(yīng)該有一些對這項創(chuàng)新益處的解釋”。
從那時起,OpenAI保留了GPT-2發(fā)布公式中的炒作部分,但取消了開放性。2020年,GPT-3正式推出,并迅速“獨家”授權(quán)給微軟。GPT-3的源代碼仍未發(fā)布,盡管目前OpenAI已經(jīng)在緊鑼密鼓地籌備GPT-4了;該模型只是通過ChatGPT的API向公眾開放,OpenAI還推出了一個付費層以保證對該模型的訪問。
這樣做當然是有一些考量。首先就是錢。OpenAI在API公告博客中表示,“將技術(shù)商業(yè)化有助于支付我們正在進行的人工智能研究、安全和政策工作”。第二個原因是偏向于幫助大公司。“除了大公司之外,任何人都很難從底層技術(shù)中獲益”。最后,公司還表示,通過API而不是開源發(fā)布更安全,因為該公司可以應(yīng)對濫用情況。
“你們一直告訴我們AGI快了,但在你們的網(wǎng)站上甚至沒有一個一致的定義?!庇嬎銠C科學(xué)家Timnit Gebru在推特上表示。
華盛頓大學(xué)語言學(xué)教授Emily M. Bender在推特上說,“他們不想解決實際世界中的實際問題(這將需要讓出權(quán)力)。他們想相信自己是神,不僅可以創(chuàng)造一個‘超級智能’,而且有恩惠,以一種與人類‘一致’的方式這樣做”。
這種人工智能是否會像該公司最初設(shè)想的那樣,負責任地分享,公開開發(fā),沒有盈利動機?或者它是會被匆匆推出,有許多令人不安的缺陷,但主要是為OpenAI帶來收益?OpenAI是否會將其科幻的未來保持在閉源狀態(tài)?
結(jié)合了ChatGPT之后,微軟的必應(yīng)聊天機器人處于“走火入魔”的狀態(tài),不斷欺騙和呵斥著用戶,傳播錯誤信息。OpenAI不能可靠地檢測自己的聊天機器人生成的文本,盡管教育工作者對學(xué)生使用該應(yīng)用程序作弊的情況越來越關(guān)注。
人們也已經(jīng)輕易地對語言模型進行了越獄,無視OpenAI在其周圍設(shè)置的護欄,機器人在輸入隨機的單詞和短語時會崩潰。沒有人能說清楚原因,因為OpenAI沒有分享底層模型的代碼,可能在某種程度上,OpenAI自己也不太可能完全理解它的工作原理。
考慮到這一切,我們都應(yīng)該仔細考慮OpenAI是否值得它要求公眾給予的信任,而對此,OpenAI沒有做出任何實質(zhì)性的回應(yīng)。
相關(guān)報道:https://www.vice.com/en/article/5d3naz/openai-is-now-everything-it-promised-not-to-be-corporate-closed-source-and-for-profit
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。