Nature調(diào)查:1600余名科學(xué)家,僅4%認(rèn)為AI當(dāng)前是“必需品”
過去十年,關(guān)于人工智能(AI)的研究論文數(shù)量在各個領(lǐng)域都有顯著增加。
本文引用地址:http://butianyuan.cn/article/202310/451310.htm科學(xué)家們已經(jīng)開始運(yùn)用 AI 工具來協(xié)助總結(jié)和撰寫研究論文和編寫代碼。一些研究者嘗試借助生成式 AI 技術(shù)來探索新的領(lǐng)域,如蛋白質(zhì)結(jié)構(gòu)的發(fā)現(xiàn)、天氣預(yù)報的改進(jìn)以及醫(yī)學(xué)診斷的創(chuàng)新等各種有前景的領(lǐng)域。
AI 已然滲透到科學(xué)研究中。那么,科學(xué)家們是如何看待它們的?
近日,頂級期刊《自然》(Nature)對全球 1600 多名研究人員進(jìn)行了一項調(diào)查。結(jié)果表明,AI 工具在科學(xué)領(lǐng)域越來越常見,并且許多科學(xué)家預(yù)計它們將很快成為研究實踐的核心。另外,超過一半的受訪者認(rèn)為 AI 工具將在未來十年內(nèi)變得非常重要或必不可少。
相關(guān)調(diào)查結(jié)果以“AI and science: what 1,600 researchers think”為題,已發(fā)表在Nature上。
在這項調(diào)查中,有 2/3 的受訪者認(rèn)為 AI 提供了更快的數(shù)據(jù)處理方式,58% 的人認(rèn)為 AI 加速了以前不可行的計算,55% 的人則提到 AI 節(jié)省了時間和金錢。
來自杜克大學(xué)的計算生物學(xué)家 Irene Kaplow 表示:“AI 讓我能夠在以前難以攻克的生物學(xué)問題中取得進(jìn)展?!?/p>
然而,也有 69% 的研究人員表示,AI 工具可能導(dǎo)致更多地依賴模式識別而不是深刻理解,58% 的人認(rèn)為 AI 可能會在數(shù)據(jù)中強(qiáng)化偏見或歧視,55% 認(rèn)為這些工具可能會增加欺詐的發(fā)生概率,53% 的人指出草率使用可能會導(dǎo)致研究無法重現(xiàn)。
任職康涅狄格州的杰克遜實驗室、從事癌癥圖像分析的 Jeffrey Chuang 表示:“主要問題在于 AI 正在挑戰(zhàn)我們現(xiàn)有的證據(jù)和真相標(biāo)準(zhǔn)?!?/p>
科學(xué)家的擔(dān)憂與興奮
為了評估活躍研究人員的觀點,《自然》雜志通過電子郵件聯(lián)系了在 2022 年最后 4 個月內(nèi)發(fā)表論文的 4 萬多名科學(xué)家,并邀請《自然簡報》的讀者參與調(diào)查。
在這些受訪者中,48% 的人直接開發(fā)或研究 AI,30% 的人在研究中使用了 AI,剩下的 22% 的人在科學(xué)中沒有使用 AI。
在那些在研究中使用 AI 的人中,超過 1/4 的人認(rèn)為 AI 工具將在未來十年內(nèi)變得必不可少,而認(rèn)為 AI 工具現(xiàn)在是“必需品”的人只占 4%。另有 47% 的人認(rèn)為 AI 將變得非常有用。然而,不使用 AI 的研究人員對此并不太感興趣。即便如此,仍然有 9% 的人認(rèn)為這些技術(shù)將在未來十年內(nèi)變得必不可少,另有 34% 的人表示它們將非常有用。
當(dāng)被要求從可能的生成式 AI 負(fù)面影響列表中選擇時,68% 的研究人員擔(dān)心信息傳播不準(zhǔn)確,另有 68% 的人認(rèn)為這將使抄襲更容易,檢測更難,66% 的人擔(dān)心會引入錯誤或不準(zhǔn)確的內(nèi)容到研究論文中。
此外,受訪者還提到,如果用于醫(yī)學(xué)診斷的 AI 工具是基于具有歷史偏見的數(shù)據(jù)進(jìn)行訓(xùn)練,他們擔(dān)心會出現(xiàn)偽造研究、虛假信息和偏見。科學(xué)家們已經(jīng)看到了這方面的證據(jù):例如,美國的一個團(tuán)隊報告說,當(dāng)他們要求 GPT-4 為臨床案例研究提供診斷和治療建議時,答案會根據(jù)患者的種族或性別而變化。
英國布里斯托爾大學(xué)攻讀醫(yī)學(xué) AI 博士學(xué)位的軟件工程師和前企業(yè)家 Isabella Degen 表示:“大型語言模型(LLMs)被濫用,存在不準(zhǔn)確和虛假但聽起來專業(yè)的結(jié)果。在我看來,我們對于正確使用和濫用之間的界限認(rèn)識還不夠清晰。”
研究人員認(rèn)為,最明顯的好處是 LLMs 可以幫助非英語母語的研究人員,改進(jìn)他們研究論文的語法和風(fēng)格,總結(jié)或翻譯其他工作。新加坡國立大學(xué)材料科學(xué)家 Kedar Hippalgaonkar 指出,“盡管存在一小部分惡意玩家,但學(xué)術(shù)界可以展示如何善用這些工具?!?/p>
即使在對 AI 感興趣的研究人員中,經(jīng)常在工作中使用 LLMs 的研究人員也仍占少數(shù)。那些學(xué)習(xí)AI 的人中有 28% 表示每天或每周使用生成式 AI 產(chǎn)品,而僅使用 AI 的人中有 13% 這樣做,而其他人中只有 1%,盡管許多人至少嘗試過這些工具。此外,所有群體中最流行的用途是與研究無關(guān)的創(chuàng)意娛樂;較少一部分人使用這些工具來編寫代碼、構(gòu)思研究思路和幫助撰寫研究論文。
另外,一些科學(xué)家對 LLMs 的輸出并不滿意。一位使用 LLMs 來幫助編輯論文的研究人員寫道:“ChatGPT 好像復(fù)制了人類的所有不良寫作習(xí)慣?!狈姨m圖爾庫大學(xué)的物理學(xué)家 Johannes Niskanen 則表示:“如果我們開始使用 AI 來閱讀和撰寫文章,科學(xué)很快就會從‘由人類為人類(for humans by humans)’轉(zhuǎn)變?yōu)椤蓹C(jī)器為機(jī)器(‘for machines by machines)’。”
AI 發(fā)展面臨困境
在這項調(diào)查中,大約一半的科學(xué)家表示他們在開發(fā)或使用 AI 方面遇到了阻礙。直接研究 AI 的研究人員最擔(dān)心的問題包括計算資源不足、為其工作提供的融資不足以及獲取運(yùn)行 AI 所需的高質(zhì)量數(shù)據(jù)不足。而那些在其他領(lǐng)域工作但在研究中使用 AI 的人則更擔(dān)心缺乏熟練的科學(xué)家和訓(xùn)練資源,此外,他們還提到了安全和隱私方面的考慮。然而,不使用 AI 的研究人員表示他們不需要 AI 或認(rèn)為它不實用,或者缺乏研究 AI 的經(jīng)驗和時間。
調(diào)查中出現(xiàn)的另一個主題是商業(yè)公司主導(dǎo)了 AI 的計算資源和 AI 工具的所有權(quán)。研究 AI 的科學(xué)家中有 23% 表示他們與開發(fā)這些工具的公司合作或在這些公司工作(其中最常提到的是谷歌和微軟),而使用 AI 的人中只有 7% 這樣做??傮w而言,略多于一半的受訪者認(rèn)為,使用 AI 的研究人員與這些公司的科學(xué)家合作是非常重要或有些重要的。
此前,已有研究人員多次警告稱,科學(xué)中對 AI 工具的天真使用可能導(dǎo)致錯誤、虛假陽性和無法重現(xiàn)的研究結(jié)果,從而潛在地浪費(fèi)時間和精力。一些科學(xué)家表示,他們擔(dān)心使用 AI 的論文中存在質(zhì)量不佳的研究。
堪薩斯州立大學(xué)曼哈頓分校的計算機(jī)科學(xué)家 Lior Shamir 表示,“機(jī)器學(xué)習(xí)有時可能有用,但 AI 引發(fā)的問題比幫助多??茖W(xué)家在不了解自己在做什么的情況下使用 AI,可能會導(dǎo)致虛假的發(fā)現(xiàn)。”
當(dāng)問及期刊編輯和同行評審人是否能夠充分審查使用 AI 的論文時,受訪者意見不一。在那些使用 AI 進(jìn)行工作但不直接開發(fā) AI 的科學(xué)家中,大約一半表示不知道, 1/4 認(rèn)為審查是充分的,1/4 認(rèn)為不充分。直接開發(fā) AI 的人傾向于對編輯和審查過程持更積極的看法。
另外,《自然》還詢問了受訪者對于 AI 在社會的 7 種潛在影響的擔(dān)憂程度,2/3 的人表示他們對此非常擔(dān)憂或很擔(dān)憂。自動化 AI 武器和 AI 輔助監(jiān)視也高居榜首,最不令人擔(dān)憂的是 AI 可能對人類構(gòu)成生存威脅的想法。
然而,許多研究人員表示,AI 和 LLMs 已經(jīng)成為不可回避的趨勢。波士頓馬薩諸塞州貝斯以色列圣救主醫(yī)療中心的肝病專家 Yury Popov 寫道:“AI 是具有變革性的,我們現(xiàn)在必須關(guān)注如何確保它帶來更多的好處,而不是問題?!?/p>
評論