博客專欄

EEPW首頁 > 博客 > 萬字長文解讀:從Transformer到ChatGPT,通用人工智能曙光初現(xiàn)(2)

萬字長文解讀:從Transformer到ChatGPT,通用人工智能曙光初現(xiàn)(2)

發(fā)布人:AI科技大本營 時間:2023-04-18 來源:工程師 發(fā)布文章
圖片NLP奮發(fā)五載

由于變換器網(wǎng)絡(luò)的出現(xiàn),大語言模型的興起,以及多種機器學(xué)習(xí)范式的融合,近五年自然語言處理有了極大的發(fā)展。從現(xiàn)在來看,這個起點當(dāng)屬2018年ELMo、GPT和BERT的出現(xiàn)。特別是,BERT通過巨量語料所學(xué)習(xí)出來的大規(guī)模預(yù)訓(xùn)練模型,不僅學(xué)會了上下文信息,還學(xué)會了語法、語義和語用等,乃至很好地學(xué)會部分領(lǐng)域知識。BERT在預(yù)訓(xùn)練模型之上,針對特定任務(wù)進(jìn)行微調(diào)訓(xùn)練,在十多個自然語言處理任務(wù)的評測中遙遙領(lǐng)先,并在機器閱讀理解頂級水平測試SQuAD1.1中表現(xiàn)出驚人成績,兩個衡量指標(biāo)上都首次并全面超越人類。由于BERT的驚人表現(xiàn),自然語言處理由此開啟了新時代,在此后的五年中奮發(fā)進(jìn)取,不斷增強語言理解與生成的能力,最終出現(xiàn)了去年年底爆火出圈的ChatGPT,并引發(fā)了通用人工智能即將到來的激烈探討。下面從三個維度來介紹自然語言處理的奮進(jìn)五年——大模型的突飛猛進(jìn),算法的融會貫通,以及應(yīng)用的百花齊放。

大模型的突飛猛進(jìn)

圖10展示了自2018年至今具有一定影響力的大模型,其中橫軸是模型發(fā)布時間(論文發(fā)表時間或模型發(fā)布時間的較早者),縱軸是模型參數(shù)的數(shù)量(單位是百萬,坐標(biāo)軸是底為10的對數(shù)坐標(biāo)軸),名字為黑色字體的是國外機構(gòu)發(fā)布的大模型,紅色字體的是國內(nèi)機構(gòu)發(fā)布的大模型。從圖10可以看到,這五年,預(yù)訓(xùn)練大語言模型的參數(shù)規(guī)模從1億到1萬億的“野蠻”增長,增長速度幾乎是每年翻10倍。這個每年翻10倍的模型增長規(guī)律,被稱為“智能時代的摩爾定律”。深入分析大模型的情況,總結(jié)有兩方面內(nèi)容:圖片圖10 自然語言大模型的奮進(jìn)五載

  • 機構(gòu)方面,Google和Deepmind發(fā)布了BERT、T5、Gopher、PaLM、GaLM、Switch等等大模型,模型的參數(shù)規(guī)模從1億增長到1萬億;OpenAI和微軟則發(fā)布了GPT、GPT-2、GPT-3、InstructGPT、Turing-NLG 和 M-Turing-NLG等等大模型,模型的參數(shù)規(guī)模從1億增長到5000億;百度發(fā)布了文心(ERNIE)系列,包括 ERNIE,ERNIE2.0,ERNIE3.0,ERNIE 3.0-Titan,參數(shù)規(guī)模從3億增長到2600億??傮w來說,隨著模型的增長,有能力訓(xùn)練和發(fā)布大模型的在減少。除了上面提到的幾家之外,其他的還有芯片大廠Nvidia靠充足的算力,大力出奇跡,國內(nèi)的智源研究院和鵬程實驗室等機構(gòu)也發(fā)布了悟道、盤古等大模型,表現(xiàn)不俗。
  • 大模型成本高昂,時間成本和經(jīng)濟成本都巨大。以模型參數(shù)為1750億的GPT-3為例,用于訓(xùn)練模型的原始語料文本超過100TB(壓縮包為45TB),包含了網(wǎng)頁、書籍、英文維基百科等。原始語料文本經(jīng)過處理后,形成了超過5000億個詞元(西方語言的詞,中文的字等)的訓(xùn)練語料。GPT-3模型的訓(xùn)練和評估采用的算力是微軟和OpenAI一起打造的超級計算集群,集群有28.5萬核CPU,1萬個V100 GPU,以及400Gbps的網(wǎng)絡(luò)帶寬。建造這個超級計算集群的費用超過20億元。如果租用微軟或其他云廠商的集群來訓(xùn)練GPT-3,訓(xùn)練一次GPT-3需要耗費估計從280萬到540萬美元不等(價格因不同云廠商而有所不同)。因訓(xùn)練花費不菲,在 GPT-3的論文《Language Models are Few-Shot Learners》中提到“發(fā)現(xiàn)了bug但由于訓(xùn)練費用問題而沒有重新訓(xùn)練模型(Unfortunately, a bug in the filtering caused us to ignore some overlaps, and due to the cost of training it was not feasible to retrain the model.)”[11]。

算法的融會貫通

自然語言處理在這五年的高速發(fā)展,除了模型越來越大,訓(xùn)練語料越來越多之外,核心還是多種不同類型的人工智能技術(shù)的高速發(fā)展,以及在自然語言處理領(lǐng)域?qū)@些技術(shù)的融會貫通。這些人工智能技術(shù)包括但不限于語言模型、對話系統(tǒng)(Conversational AI)、思維鏈(Chain of Thoughts)、強化學(xué)習(xí)(Reinforcement Learning)和人類反饋強化學(xué)習(xí) (Reinforcement Learning from Human Feedback,RLHF)、情境學(xué)習(xí)(In-context learning)、無監(jiān)督學(xué)習(xí)(Unsupervised Learning)等等。除此之外,算力的增長、大數(shù)據(jù)處理技術(shù)的發(fā)展也提供了必不可少的支撐。

語言模型

這里簡要介紹三類代表性的語言模型,分別為BERT所使用的掩碼語言模型、GPT系列所使用的自回歸語言模型以及ERNIE系列所使用的引入了知識圖譜等專家知識的語言模型。掩碼語言模型(Masked language model,MLM)是一種雙向語言模型[6][8],模擬了人類對語言的認(rèn)知的雙向語言模型。一個例子是,人們快速讀閱時,些許的字文錯誤并不會影響理解,這是由于人們會自動補全。掩碼語言模型正是模擬了這一特點,比如對于“一枝紅杏出墻來”這句話,將其一部分掩蓋住后,原句變?yōu)椤耙恢t?出墻來”,如何判斷“?”掩蓋的部分?人們能夠自然地意識到“?”掩蓋的是“杏”。而掩碼語言模型則是為了讓模型能夠像人一樣“猜出”被掩蓋的部分。BERT通過變換器網(wǎng)絡(luò)的編碼器來實現(xiàn)掩碼語言模型。同時,如圖11所示,BERT使用了多任務(wù)學(xué)習(xí)方法來從大規(guī)模語料中訓(xùn)練出模型,并在具體任務(wù)中進(jìn)行微調(diào)(Fine-Tuning)。圖片圖11 BERT的預(yù)訓(xùn)練和具體任務(wù)的微調(diào)示意圖[8]與BERT不一樣的是,GPT系列則通過變換器網(wǎng)絡(luò)的****實現(xiàn)了自回歸語言模型(Autoregressive language model)[9],采用多任務(wù)訓(xùn)練的方法訓(xùn)練模型,模型如圖12所示。自回歸在時間序列分析中非常常見,比如ARMA,GARCH等都是典型的自回歸模型。在語言模型中,自回歸模型每次都是根據(jù)給定的上下文從一組詞元中預(yù)測下一個詞元,并且限定了一個方向(通常是正向,即在一個句子中從前往后依次猜下一個字/詞)。同樣以“一枝紅杏出墻來”為例,自回歸語言模型中,給定“一枝紅”的上下文來預(yù)測下一個 “杏”字,緊接著給定“一枝紅杏”來預(yù)測下一個“出”字,然后是根據(jù)給定的“一枝紅杏出”來預(yù)測“墻”字,如此循環(huán),直到完成整個序列的預(yù)測并輸出。有多種不同的方案來選擇模型預(yù)測的輸出標(biāo)記序列,例如貪婪解碼、集束搜索(Beam Search)、Top-K采樣、核采樣(Nucleus Sampling)、溫度采樣(Temperature Sampling)等。除了 GPT 系列之外,Transformer-XL、XLNet等大模型也采用了自回歸語言模型。圖片圖12 GPT模型架構(gòu)及多任務(wù)訓(xùn)練示意圖[9]ERNIE在采用了 BERT 類似的模型架構(gòu)之上,加入了知識圖譜[6],使得模型能夠用先驗知識來更好地理解語義,其架構(gòu)如圖13所示[10]。還是以“一枝紅杏出墻來”為例,ERNIE能夠更好地理解“紅杏”,并知道它是一種“植物”。也因此,相比于BERT和GPT,ERNIE能夠在更小的模型下獲得相對更好的效果。尤其值得一提的是,這點在中文場景中更加明顯。圖片圖13 ERNIE模型架構(gòu)及嵌入知識圖譜的示意圖[10]

情境學(xué)習(xí)

情境學(xué)習(xí)(In-context Learning)是隨著GPT-3而流行起來。在GPT-3中,通過給出僅僅幾個示例就能夠很好地完成許多自然語言處理任務(wù)的方法,被稱為情境學(xué)習(xí)。圖14是一個直觀的例子,使用了ChatGPT的情境學(xué)習(xí)來實現(xiàn)情感分析任務(wù)。直觀地說,情境學(xué)習(xí)就是給模型一些包含任務(wù)輸入和輸出的提示,并在提示的末尾附加一個用于預(yù)測的輸入,模型根據(jù)提示和預(yù)測輸入來預(yù)測任務(wù)的結(jié)果并輸出。也因此,情境學(xué)習(xí)有時候也被稱為基于提示的學(xué)習(xí)(Prompt-based learning)。圖片圖14 情境學(xué)習(xí)實例,使用了ChatGPT從圖15可以看出,情境學(xué)習(xí)的預(yù)測結(jié)果在大模型的情況下效果表現(xiàn)得非常好,但在小模型的情況下表現(xiàn)糟糕。簡單地說,大模型使得情境學(xué)習(xí)變得有用。這是由于情境學(xué)習(xí)依賴于語言模型所學(xué)習(xí)到的概念語義和隱含的貝葉斯推理,而這依賴于大規(guī)模預(yù)訓(xùn)練模型對潛在概念的學(xué)習(xí),從文檔級語料學(xué)習(xí)了長距離依賴并保持長距離的連貫性、思維鏈和復(fù)雜推理等等。也因此,情境學(xué)習(xí)在大模型之前罕見,可謂連實驗室的玩具都談不上。而在大模型的支撐下,在許多自然語言處理任務(wù)的基準(zhǔn)測試(如LAMBADA文本理解測試集和TriviaQA問答測試集)中,情境學(xué)習(xí)相比其他模型也非常具有競爭力。圖片圖15 情境學(xué)習(xí)效果曲線[11]從應(yīng)用來看,情境學(xué)習(xí)最為津津樂道的兩個特點是:

  • 情境學(xué)習(xí)能夠有效地使模型即時適應(yīng)輸入分布與訓(xùn)練分布有顯著差異的新任務(wù),這相當(dāng)于在推理期間通過“學(xué)習(xí)”范例來實現(xiàn)對特定任務(wù)的學(xué)習(xí),進(jìn)而允許用戶通過新的用例快速構(gòu)建模型,而不需要為每個任務(wù)進(jìn)行微調(diào)訓(xùn)練。
  • 構(gòu)建于大語言模型之上的情境學(xué)習(xí)通常只需要很少的提示示例即可正常工作,這對于非自然語言處理和人工智能領(lǐng)域的專家來說非常直觀且有用。

這兩個特點使得人們能夠使用一個模型來實現(xiàn)不同的任務(wù),為類似ChatGPT這樣的準(zhǔn)AGI提供了技術(shù)基礎(chǔ)。也正因此,人工智能領(lǐng)域念叨多年的通用人工智能終于露出了一絲曙光。

人類反饋強化學(xué)習(xí)

人類反饋強化學(xué)習(xí)是一種人工智能模型在進(jìn)行預(yù)測(推斷)的過程中通過人的反饋來實現(xiàn)模型學(xué)習(xí),使得模型輸出與人類的意圖和偏好保持一致,并在連續(xù)的反饋循環(huán)中持續(xù)優(yōu)化,進(jìn)而產(chǎn)生更好的結(jié)果。事實上,人工智能發(fā)展過程中,模型訓(xùn)練階段一直都有人的交互,這也被稱為人在圈內(nèi)(Human-in-the-loop, HITL),但預(yù)測階段則更多的是無人參與,即人在圈外(Human-out-of-the-loop, HOOTL)。在這五年的奮進(jìn)中,通過人類反饋強化學(xué)習(xí)使得自然語言處理在推斷階段能夠從人的反饋中學(xué)習(xí)。這在自然語言處理領(lǐng)域是一個新創(chuàng)舉,可謂人與模型手拉手,共建美好新AI。從技術(shù)上看,人類反饋強化學(xué)習(xí)是強化學(xué)習(xí)的一種,適用于那些難以定義明確的用于優(yōu)化模型損失函數(shù),但卻容易判斷模型預(yù)測效果好壞的場景,即評估行為比生成行為更容易。在強化學(xué)習(xí)的思想中,智能體(Agent)通過與它所處環(huán)境的交互中進(jìn)行學(xué)習(xí),常見在各類游戲AI中。比如,鼎鼎大名的 AlphaGo,在2017年烏鎮(zhèn)互聯(lián)網(wǎng)大會上打敗了圍棋世界冠軍柯潔,其核心技術(shù)就是強化學(xué)習(xí)。人類反饋強化學(xué)習(xí)并非從自然語言處理開始的,比如2017年OpenAI和DeepMind合作探索人類反饋強化學(xué)習(xí)系統(tǒng)與真實世界是否能夠有效地交互,實驗的場景是Atari游戲、模擬機器人運動等。這些成果隨后被OpenAI和DeepMind應(yīng)用到大語言模型上,通過人類反饋來優(yōu)化語言模型,進(jìn)而使得模型的輸出與預(yù)期目標(biāo)趨于一致,比如InstructionGPT、FLAN等。這些成果表明,加入人類反饋強化學(xué)習(xí)使得生成文本的質(zhì)量明顯優(yōu)于未使用人類反饋強化學(xué)習(xí)的基線,同時能更好地泛化到新領(lǐng)域。圖16是人類反饋強化學(xué)習(xí)的框架圖,獎勵預(yù)測器是學(xué)習(xí)出來的,這點與傳統(tǒng)強化學(xué)習(xí)有所不同。在傳統(tǒng)強化學(xué)習(xí)中,獎勵函數(shù)是人工設(shè)定的。在InstructionGPT中,強化學(xué)習(xí)算法使用了近端策略優(yōu)化(Proximal Policy Optimization,PPO)來優(yōu)化GPT-3生成摘要的策略。圖片圖16 人類反饋強化學(xué)習(xí)框架圖應(yīng)用的百花齊放

近年來,所有自然語言處理的任務(wù)都有了長足進(jìn)步,效果飆升,許多任務(wù)都超越了人類專家的水平。在斯坦福問答數(shù)據(jù)集2.0(SQuAD2.0)評測中,最新的模型EM 分?jǐn)?shù)和F1分?jǐn)?shù)分別為90.939和93.214,相比人類專家86.831和89.452高了4.73%和4.21%。在斯坦福對話問答CoQA數(shù)據(jù)集的評測中,最佳模型的分?jǐn)?shù)達(dá)到90.7,相比人類專家的分?jǐn)?shù)88.8,高出了2%。在機器翻譯中,自2017年至今,WMT2014英譯德評測集的 BLEU分?jǐn)?shù)從26增長到35以上,德譯英則從23增長到35以上。在其他諸如文本分類、文檔分類、對話生成、數(shù)據(jù)到文本(Data-to-Text)、看圖說話(Visual Storytelling)、視覺問答、情感分析、實體抽取、關(guān)系抽取、事件抽取、自動摘要、OCR等等任務(wù)中的效果增長都非常顯著。在這五年中,行業(yè)應(yīng)用也愈加廣泛。金融、醫(yī)療、司法、制造、營銷、媒體等各行各業(yè)都是使用自然語言處理技術(shù)提升效率,降低風(fēng)險?;谧匀徽Z言處理最新技術(shù)的綜合性平臺智能文檔處理系統(tǒng)(Intelligence Document Process System,IDPS)開始流行,比如圖17所示的達(dá)觀數(shù)據(jù)IDPS。中國信息通信研究院(信通院)等機構(gòu)組織了標(biāo)準(zhǔn)編制和評測,萬千企業(yè)開始使用智能文檔處理系統(tǒng)進(jìn)行文檔智能比對、關(guān)鍵要素抽取、銀行流水識別、風(fēng)險審核、文檔寫作等,實現(xiàn)了諸多腦力勞動的智能化。圖片圖17 達(dá)觀智能文檔處理系統(tǒng)同時,依托自然語言處理進(jìn)行實體、關(guān)系、事件等知識的抽取,構(gòu)建出領(lǐng)域?qū)I(yè)知識圖譜,并以語義檢索、智能問答、歸因分析、知識推理等為各行提供了豐富的應(yīng)用,比如賦能智能制造的故障排查,金融行業(yè)的智能投研和智能投顧,政府和企業(yè)的輿情分析,營銷和售后的智能客服和智能運營,媒體的資訊分類、自動摘要和事實校驗等。隨著近五年自然語言處理技術(shù)的發(fā)展,許多原來無法完善服務(wù)的場景也有了切實可見的應(yīng)用,影響著三百六十行的億萬工作者。由OpenAI的Codex大語言模型提供支撐的GitHub CoPilot為數(shù)千萬的程序員提供效率工具。最新的ChatGPT參與沃頓商學(xué)院的工商管理碩士課程的期末考試并獲得了B檔成績,展現(xiàn)出了非凡的能力[12]。同樣的場景出現(xiàn)在許多大學(xué)中,比如北密歇根大學(xué)有學(xué)生使用 ChatGPT寫課程論文獲得了全班最高分。更有甚者,ChatGPT已經(jīng)成為了許多科學(xué)論文或出版書籍的共同作者,比如ChatGPT名列《Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models》這篇12個作者中的第三位[13],Gautier Marti則在其出版的書籍《From Data to Trade: A Machine Learning Approach to Quantitative Trading》中將ChatGPT列為共同作者。


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉