博客專欄

EEPW首頁 > 博客 > 谷歌前CEO埃里克·施密特:人工智能將改變科學的運作方式

谷歌前CEO埃里克·施密特:人工智能將改變科學的運作方式

發(fā)布人:傳感器技術 時間:2023-08-03 來源:工程師 發(fā)布文章
今年入夏以來,全球面臨各種極端氣候——高溫、洪水和山火不時發(fā)生。為了準確預測此類極端情況,半導體巨頭英偉達決定為整個星球打造一個人工智能驅(qū)動的名為“地球-2”“數(shù)字孿生”體系。

這個系統(tǒng)基于擁有數(shù)十兆字節(jié)地球數(shù)據(jù)的人工智能模型,可以更快、更準確地預測未來兩周的天氣,準確捕捉罕見但致命的災難風險,從而為弱勢人群提供寶貴的準備和疏散時間。隨著人工智能的出現(xiàn),科學將變得更加令人興奮,但在某些方面也變得面目全非,這種轉(zhuǎn)變將影響我們所有人。如果我們打好這一手牌,通過合理的監(jiān)管和對人工智能創(chuàng)新應用的適當支持來解決科學最緊迫的問題,人工智能可以改寫科學進程。近幾個月來,人工智能幾乎已經(jīng)成為大型語言模型(LLM)的代名詞,但在科學領域,有許多不同的模型架構可能會產(chǎn)生更大的影響。在過去的十年里,科學的大多數(shù)進步都來自于專注于特定問題的較小的“經(jīng)典”模型。這些模式已經(jīng)帶來了深刻的進步。最近,開始融合跨領域知識和生成人工智能的更大深度學習模型擴大了可能性。圖片圖片重塑科學目前,人工智能已經(jīng)改變了一些科學家進行文獻綜述的方式。PaperQA和Elicit等工具利用LLM掃描文章數(shù)據(jù)庫,并對現(xiàn)有文獻引文進行簡潔準確的總結。人工智能還可以更快地擴大或縮小假設的搜索范圍。因此,人工智能工具可以幫助制定更有力的假設,例如為新藥提供更有前景的候選模型。進入實驗階段,人工智能將能夠更快、更便宜、更大規(guī)模地進行實驗。例如,我們可以用數(shù)百個日夜運行的微量移液器制造人工智能驅(qū)動的機器,以無人能及的速度產(chǎn)生樣本??茖W家可以使用人工智能工具進行一千次實驗,而不是將自己限制在六次實驗。擔心下一次撥款、出版或任期過程的科學家將不再局限于成功幾率最高的安全實驗;他們將可以自由地追求更大膽、更跨學科的假設。例如,在評估新分子時,研究人員傾向于選擇與我們已經(jīng)知道的分子結構相似的候選分子,但人工智能模型不必具有相同的偏見和約束。最終,大部分科學將在“自驅(qū)動實驗室”進行,即與人工智能相結合的自動化機器人平臺。在這里,我們可以將人工智能能力從數(shù)字領域帶入物理世界。這種自驅(qū)動實驗室已經(jīng)在Emerald Cloud Lab和Artificial等公司出現(xiàn),甚至在阿貢國家實驗室也出現(xiàn)了。最后,在分析和結論階段,自驅(qū)動實驗室將超越自動化,根據(jù)他們產(chǎn)生的實驗結果,使用LLM來解釋結果,并推薦下一個實驗。然后,作為研究過程中的合作伙伴,人工智能實驗室助理可以訂購用品來取代早期實驗中使用的用品,并在一夜之間設置和運行下一個推薦的實驗,結果可以在早上實驗者在家睡覺時隨時公布。圖片圖片可能性和局限性年輕的研究人員可能對這一前景感到緊張。幸運的是,這場革命產(chǎn)生的新工作可能比目前大多數(shù)實驗室工作更有創(chuàng)意,也沒有那么盲目。人工智能工具可以降低新科學家的進入門檻,并為那些傳統(tǒng)上被排除在該領域之外的人打開機會。有了LLM能夠幫助構建代碼,STEM學生將不再需要掌握晦澀難懂的編碼語言,這為新的非傳統(tǒng)人才打開了象牙塔的大門,并使科學家更容易參與自己以外的領域。很快,經(jīng)過專門培訓的LLM可能會超越提供資助提案等書面工作的初稿,并可能被開發(fā)為與人類評審員一起提供新論文的“同行”評審。人工智能工具有著令人難以置信的潛力,但我們必須認識到人與人之間的接觸仍然很重要,不要在走路之前先跑步。例如,通過自驅(qū)動實驗室將人工智能和機器人技術成功融合并非易事??茖W家們在實驗室里學到了很多隱性知識,這些知識很難傳授給人工智能驅(qū)動的機器人。同樣,在我們將大部分文書工作、研究和分析交給LLM之前,我們應該意識到當前LLM的局限性甚至幻覺。除了達到新的高度,人工智能還可以通過解決科學的可復制性危機來幫助驗證我們已經(jīng)知道的事情。大約70%的科學家報告顯示,他們無法復制另一位科學家的實驗,這是一個令人沮喪的數(shù)字。隨著人工智能降低了實驗的成本和工作量,在某些情況下,復制結果或得出無法復制的結論會更容易,這有助于增強人們對科學的信任。可復制性和信任的關鍵在于透明度。在理想的世界里,科學領域的一切都是開放獲取的,從沒有付費墻的文章到開源數(shù)據(jù)、代碼和模型??杀氖?,由于這些模型可能會帶來危險,使所有模型都開源并不總是現(xiàn)實的。在許多情況下,完全透明的風險大于信任和公平的好處。盡管如此,在一定程度上,我們可以對模型透明,尤其是使用更有限的經(jīng)典人工智能模型。

來源:麻省理工科技



*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



關鍵詞: 埃里克·施密特

相關推薦

技術專區(qū)

關閉