博客專欄

EEPW首頁 > 博客 > 在AI“必爭之地”,全球最大規(guī)模人工智能巨量模型誕生

在AI“必爭之地”,全球最大規(guī)模人工智能巨量模型誕生

發(fā)布人:中國科學(xué)報 時間:2021-10-02 來源:工程師 發(fā)布文章
作者 | 張雙虎


當(dāng)學(xué)界和業(yè)界均相信“大力出奇跡”的時候,就該大模型閃亮登場了。
9月28日,浪潮人工智能研究院發(fā)布全球最大人工智能巨量模型——源1.0。
這個幾乎把近5年中文互聯(lián)網(wǎng)的浩瀚內(nèi)容全部讀完,在數(shù)據(jù)量、參數(shù)規(guī)模與模型精度方面均居全球之最的大模型,將以開源、開放、共享的策略,降低巨量模型研究和應(yīng)用的門檻,推動AI產(chǎn)業(yè)化和產(chǎn)業(yè)AI化的進步。
中國工程院院士王恩東認(rèn)為,人工智能的大模型時代已經(jīng)到來,利用先進算法,整合大規(guī)模數(shù)據(jù),匯聚大量算力,訓(xùn)練出巨量人工智能模型是未來的發(fā)展方向……



“博學(xué)”的模型  |



“戰(zhàn)鼓催征千嶂寒,陰陽交會九皋盤。”
這句詩出自哪位邊塞詩人之手?出自“初唐四杰”抑或“大歷才子”?你也許有些恍惚,然而這些都不是,它出自一個名為“源1.0”的大模型。


前不久,浪潮招募近百人參與了一場“類圖靈測試”,將源1.0大模型生成的對話、新聞、詩歌、對聯(lián),小說續(xù)寫5類作品混雜在文學(xué)大師的作品中,由測試者判斷該作品是“人為”還是“機為”。
測試中,人們會把自認(rèn)為優(yōu)秀的作品歸功于人類,不夠理想的判定為機器創(chuàng)作。
最后的測試結(jié)果“令人振奮”,在源1.0的挑戰(zhàn)測試中,人們能夠準(zhǔn)確分辨人與“源1.0”作品差別的總體成功率低于50%。
“測試者的平均區(qū)分正確率是49.16%?!崩顺比斯ぶ悄苎芯吭菏紫芯繂T吳韶華對《中國科學(xué)報》說,“這意味著,多數(shù)人不能辨別作品出自文學(xué)大師之手還是由源1.0創(chuàng)作。”
在5類測試作品中,新聞類作品誤判率最高,達到57.88%,即大多數(shù)人很難分別作品到底是人類作品還是機器創(chuàng)作。
在記者看到的一篇關(guān)于“中國稀土行業(yè)存在問題”的新聞作品中,從文體、布局到遣詞造句,妥妥的規(guī)范“新華體”,難怪近6成參與測試者難以辨別。
即使誤判率最低的詩歌類作品(37.69%),如文章開始提到那兩句詩,也字順意達,不仔細推敲,確實難以想到是機器創(chuàng)作。
圖靈測試是判斷機器是否具有智能的經(jīng)典方法。通常認(rèn)為,進行多次測試后,如果人工智能讓平均每個參與者做出超過30%的誤判,那么這臺機器就通過了測試,并被認(rèn)為具有人類智能。
以類圖靈測試判斷,這個能詩善文,可以和人對話、能給我們講故事的源1.0 有資格被稱為目前最“博學(xué)”的模型。
那么,是什么讓機器如此“聰明”?



 大力出奇跡  |



“認(rèn)知智能是人工智能研究者追求的方向之一。”中國工程院院士王恩東告訴《中國科學(xué)報》,“除了加速深度學(xué)習(xí)技術(shù),開發(fā)全新的算法范式研究方向外,大規(guī)模數(shù)據(jù)訓(xùn)練超大參數(shù)量的巨量模型也是未來發(fā)展方向,即利用先進的算法,整合大規(guī)模的數(shù)據(jù),匯聚大量算力,訓(xùn)練出巨量人工智能模型?!?/span>
2020年6月,OpenAI發(fā)布了參數(shù)量高達1750億的大模型GPT-3,該模型一推出就引起人工智能學(xué)界和業(yè)界的轟動。
“語言模型是全球AI界的‘必爭之地’?!币晃蝗斯ぶ悄苎芯款I(lǐng)域的專家說,“參數(shù)規(guī)模大到遠超我們想象的時候,會發(fā)生一些難以解釋的現(xiàn)象?!?/span>
浪潮信息副總裁劉軍同樣認(rèn)為,生命從簡單進化到復(fù)雜,這種智能水平本身就是一種模型。如果把模型比作元宇宙中的生命,大模型的這種綜合系統(tǒng)能力,可能會決定未來數(shù)字世界和智能世界里的智能水平。“人的神經(jīng)元突觸超過100萬億,而現(xiàn)有大模型的參數(shù)量還遠遠不夠,所以我們還有很遠路要走”。
伴隨著人工智能應(yīng)用廣度與深度的不斷提升,眾多行業(yè)、諸多業(yè)務(wù)場景的智能化創(chuàng)新需求日益增多。
然而當(dāng)前大多數(shù)AI模型只能用于某一特定領(lǐng)域,通用性不強,這對AI技術(shù)提出了挑戰(zhàn),也限制了AI的產(chǎn)業(yè)化進程。
大模型在今天初露崢嶸絕非偶然。技術(shù)、算力、資源、需求等多因素的“風(fēng)云際會”,讓被AI業(yè)界視為“核力量”的大模型嶄露頭角。



最大中文語言模型  |



源1.0幾乎把近5年整個中文互聯(lián)網(wǎng)的浩瀚內(nèi)容全部讀完,在收集并清洗數(shù)據(jù)后,最終獲得5TB高質(zhì)量數(shù)據(jù),成為迄今業(yè)界最大的高質(zhì)量中文數(shù)據(jù)集。
在語言智能方面,源1.0獲得中文語言理解評測基準(zhǔn)CLUE榜單零樣本學(xué)習(xí)和小樣本學(xué)習(xí)兩類總榜冠軍,獲得小樣本學(xué)習(xí)的文獻分類、商品分類、文獻摘要識別、名詞代詞關(guān)系等4項任務(wù)冠軍。



“在數(shù)據(jù)量、參數(shù)規(guī)模與模型精度方面,源1.0均居全球之最。”浪潮人工智能研究院首席研究員吳韶華說。
對標(biāo)OpenAI的GPT-3,源1.0參數(shù)規(guī)模為2457億,訓(xùn)練采用的中文數(shù)據(jù)集達5TB。相比GPT-3模型1750億參數(shù)量和570GB訓(xùn)練數(shù)據(jù)集,源1.0參數(shù)規(guī)模領(lǐng)先40%,訓(xùn)練數(shù)據(jù)集規(guī)模領(lǐng)先近10倍。
“得益于我們設(shè)計模型時,對精度和計算性能的協(xié)同?!眳巧厝A說,“在算法上,我們解決了巨量模型訓(xùn)練不穩(wěn)定的業(yè)界難題,提出穩(wěn)定訓(xùn)練巨量模型的算法,打造了巨量模型推理方法創(chuàng)新;在數(shù)據(jù)方面,我們生成了迄今業(yè)界最大的高質(zhì)量中文數(shù)據(jù)集;在算力上,我們通過算法與算力協(xié)同優(yōu)化,極大提升了計算效率,在實現(xiàn)業(yè)界訓(xùn)練性能第一的同時,還達到了業(yè)界領(lǐng)先的精度?!?/span>
人工智能模型目前存在諸多挑戰(zhàn)。
一是語言模型的通用性不高,一個模型專用于特定領(lǐng)域,換個地方就效果欠佳。而訓(xùn)練超大規(guī)模模型能一定程度上解決通用性問題,可以被應(yīng)用于翻譯、問答、文本生成等,涵蓋自然語言理解的所有領(lǐng)域,可被廣泛地應(yīng)用于各種AI場景。
二是模型開發(fā)成本高、周期長。而經(jīng)過預(yù)訓(xùn)練的大模型可以讓研究機構(gòu)和企業(yè)“不必從0做起,可以在大模型的基礎(chǔ)上,從60、或者從90開始做到100”。
“通過一個預(yù)訓(xùn)練的大模型,面向任務(wù)做小樣本學(xué)習(xí)、零樣本學(xué)習(xí)以及微調(diào),可用于各行各業(yè)?!眳巧厝A說,“大模型最重要的優(yōu)勢是進入大規(guī)??蓮?fù)制的工業(yè)落地階段,只需小樣本的學(xué)習(xí)也能達到比以前更好的效果,且模型參數(shù)規(guī)模越大這種優(yōu)勢越明顯,這能大大降低各類用戶的開發(fā)使用成本?!?/span>



共建“通天塔” |



發(fā)展大模型曾被稱作“富人的燒錢游戲”。OpenAI為開發(fā)GPT-3花費了10億美元,研發(fā)團隊用了1萬個GPU,訓(xùn)練了1個月。
國內(nèi)某課題組為進行一項較復(fù)雜的計算,購置了數(shù)臺服務(wù)器。運行起來后,該團隊負(fù)責(zé)人坦言,“光電費每天得1萬元”。
因為在算法、軟硬件適配方面做了大量優(yōu)化,源1.0比GPT-3用的CPU更少,訓(xùn)練時間更短。這讓源1.0一定程度上摘下了“富人燒錢游戲”的帽子。
同時,得益于浪潮在服務(wù)器和人工智能計算方面的長期投入和深厚的積累,浪潮開發(fā)大模型就如魚得水。浪潮并未細致切割出開發(fā)源1.0大模型到底投入了多大人力物力,但相信這也不會是個小數(shù)字。
在源1.0發(fā)布的專家研討會前,幾位自然語言處理方面的專家前后到場。
因為同在一個研究領(lǐng)域,他們或是故交、或相互聽說過姓名,見面聊起當(dāng)前大模型的熱度,談笑間,“這(發(fā)展大模型)是一場新的‘軍備競賽’”的共識已經(jīng)達成。
學(xué)界普遍認(rèn)為,大模型猶如“望遠鏡”“顯微鏡”一樣,當(dāng)人們沒有這些設(shè)備時,不知道瀚瀚宇宙和原子分子等微觀世界到底有什么,是什么樣。有了大模型,人類或許就能發(fā)現(xiàn)一番嶄新的天地。
因此,不管實力雄厚的頭部企業(yè)、研究機構(gòu),還是課題小組、單個研究人員,都期望能盡快用上大模型。
業(yè)內(nèi)人士認(rèn)為,別說千億量級的模型,百億量級的模型對研究機構(gòu)來說都難實現(xiàn)。而且,業(yè)界和學(xué)術(shù)界非常希望大模型能開放共享,開放模型可以讓大家一起來開發(fā)應(yīng)用,優(yōu)化和構(gòu)建共同生態(tài)。
“開放、開源、共享,是我們做這個事情的目的?!眲④娬f,“我們不希望這么一個強大的武器有很高的門檻,成為少數(shù)人的專利,我們希望把它變成一個普惠性的能力建設(shè)?!?/span>
劉軍認(rèn)為,巨量數(shù)據(jù)、巨量算法和巨量算力正在成為邁向通用人工智能的重要路徑。巨量模型最后會變成創(chuàng)新的源頭,變成不同應(yīng)用場景里快速產(chǎn)生模型的源頭。
“浪潮源1.0大模型只是一個開始,它只是提供一片廣闊的肥沃土壤。浪潮未來將定向開放大模型API,服務(wù)于元腦生態(tài)社區(qū)內(nèi)所有開發(fā)者,供全球的開發(fā)人員在我們的平臺上開發(fā)應(yīng)用于各行各業(yè)的應(yīng)用程序。”劉軍說,“源1.0將面向?qū)W術(shù)機構(gòu)和產(chǎn)業(yè)界用戶開源,降低巨量模型研究和應(yīng)用的門檻,推動AI產(chǎn)業(yè)化和產(chǎn)業(yè)AI化的進步,為國家在人工智能研究創(chuàng)新和產(chǎn)業(yè)發(fā)展作出貢獻?!?/span>
大模型時代已經(jīng)到來,如果頭部企業(yè)能站在行業(yè)發(fā)展的高處,以開源、開放、共享的理念來協(xié)同發(fā)展大模型,也許一場高損耗的“軍備競賽”會消弭于無形,一座通向智能世界的“通天塔”或許就能建成。
編輯 | 趙路
排版 | 郭剛


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: 人工智能

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉