博客專欄

EEPW首頁 > 博客 > 深度學(xué)習(xí)是“技術(shù)寄生蟲”!這3種人工智能主流觀點(diǎn),“錯(cuò)得離譜”

深度學(xué)習(xí)是“技術(shù)寄生蟲”!這3種人工智能主流觀點(diǎn),“錯(cuò)得離譜”

發(fā)布人:中國科學(xué)報(bào) 時(shí)間:2021-10-21 來源:工程師 發(fā)布文章
作者 | 胡珉琦 


當(dāng)前主流的人工智能,經(jīng)由深度學(xué)習(xí)技術(shù)所提供的強(qiáng)大運(yùn)算力,會(huì)在某個(gè)不太遙遠(yuǎn)的時(shí)刻逼近通用人工智能的目標(biāo)。


通用人工智能技術(shù)可以通過當(dāng)前的技術(shù)路線達(dá)成,然而,該目標(biāo)的實(shí)現(xiàn)會(huì)對(duì)人類社會(huì)構(gòu)成莫大的威脅。


未來人工智能的主要技術(shù)路徑,是大數(shù)據(jù)技術(shù)、5G環(huán)境中的物聯(lián)網(wǎng)技術(shù)。


這三條目前在人工智能領(lǐng)域的主流意見,被復(fù)旦大學(xué)哲學(xué)學(xué)院教授徐英瑾在剛剛出版的《人工智能哲學(xué)十五講》中,評(píng)價(jià)為“犯了哲學(xué)層面上的錯(cuò)誤”“錯(cuò)得離譜”。


“不幸的是,全球范圍內(nèi)關(guān)于人工智能的技術(shù)與資本布局,都多多少少受到了上述三種觀點(diǎn),尤其是最后一種觀點(diǎn)的影響。對(duì)此,我感到非常憂慮?!?/span>


作為國內(nèi)少有的研究人工智能哲學(xué)的年輕學(xué)者,徐英瑾在本書中系統(tǒng)性地對(duì)主流人工智能技術(shù)進(jìn)行了批判性討論,并另辟蹊徑,為“我們將如何做出更好的人工智能”這一問題提供了截然不同的方案,簡直就是當(dāng)下人工智能發(fā)展的一個(gè)“反叛者”。


“我們要有一種容錯(cuò)心理,要允許不同的學(xué)科流派,按照不同的哲學(xué)假設(shè)、不同的邏輯來工作,誰做的東西好,讓市場來檢驗(yàn)?!?/span>


徐英瑾一直在很認(rèn)真地走“旁門左道”,但他告訴《中國科學(xué)報(bào)》,目前人工智能發(fā)展所碰到的主要困難,不是科學(xué),而是“傳播學(xué)”。因?yàn)榉粗髁鞯挠^點(diǎn)很難獲得話語權(quán),也因其顛覆性的特質(zhì),而難以被深刻理解。


“科技發(fā)展有時(shí)會(huì)陷入路徑依賴,埋頭奔跑,卻忽略了欲速則不達(dá)。哲學(xué)家出于思辨的習(xí)慣,總是走三步退五步。”徐英瑾表示,目前社會(huì)上被熱炒的人工智能概念需要一番冷靜的“祛魅”操作,可哲學(xué)批判精神并沒有發(fā)揮重要作用,使得一些研究規(guī)劃沒有在“概念論證”的階段受到足夠認(rèn)真的檢視,而這種缺憾,又與人文學(xué)科在整個(gè)科研預(yù)算分配游戲中的邊緣化地位密切相關(guān)。


《中國科學(xué)報(bào)》:為什么人工智能研究需要哲學(xué)?人工智能哲學(xué)究竟要討論什么?


徐英瑾:人工智能和所有的學(xué)科都不太一樣,它是一個(gè)連基本范式都尚未確定的學(xué)科。按照人工智能專家李飛飛女士的話說,類比物理學(xué)的發(fā)展軌跡,人工智能目前還處于前伽利略時(shí)代。


這是因?yàn)?,在人工智能學(xué)界,關(guān)于何為智能的基本定義都還沒有定見,由此導(dǎo)致的技術(shù)路線分歧更是不一而足。牽涉到“什么是智能”這個(gè)大問題的追問,需要高度抽象的能力。澄清基本概念、思考大問題,是哲學(xué)家的本分。 


除了什么是智能,哲學(xué)家還需要討論諸如這些問題:人工智能未來發(fā)展的大方向該怎么走;深度學(xué)習(xí)會(huì)不會(huì)演變成通用人工智能技術(shù);如果不能變成通用人工智能技術(shù),通用人工智能技術(shù)的道路該怎么走;是否要走類腦的技術(shù)路線;現(xiàn)有的技術(shù)路線是否具有一定的方法論上的錯(cuò)誤;能否在方法論層面進(jìn)行糾偏,等等。


但是,現(xiàn)在的人工智能哲學(xué)研究是存在偏倚的,它凸顯了自身形而上學(xué)的“面相”,而本該有的工程學(xué)“面相”卻被壓抑了。也就是說,人工智能哲學(xué)應(yīng)該是聚焦于對(duì)人工智能自身的技術(shù)前提的追問。


問題是,并不是所有哲學(xué)家都具有與現(xiàn)實(shí)世界交接的能力,擺脫了對(duì)于人工智能技術(shù)實(shí)踐的體會(huì),空談形而上學(xué)的內(nèi)容,非常像“葉公好龍”。


《中國科學(xué)報(bào)》:深度學(xué)習(xí)能讓人工智能更“智能”嗎?


徐英瑾:我認(rèn)為,深度學(xué)習(xí)并非人工智能研究的康莊大道。


深度學(xué)習(xí)機(jī)制的根底,是對(duì)于人類專家某方面的數(shù)據(jù)歸類能力的膚淺模仿。這類機(jī)制正是在這種模仿的基礎(chǔ)上,才能在某類輸入信息與某類目標(biāo)信息之間建立起特定種類的映射關(guān)系。


而之所以說這類技術(shù)對(duì)于人類能力的模仿是“膚淺”的,首先是因?yàn)樯疃葘W(xué)習(xí)機(jī)制的運(yùn)作完全是以大量人類專家提供大量優(yōu)質(zhì)的樣板數(shù)據(jù)為邏輯前提的。這就存在算法偏見的風(fēng)險(xiǎn),而且在人類專家無法提供大量樣板數(shù)據(jù)的地方,深度學(xué)習(xí)也很難有用武之地。


其次,這種模仿不以深入理解人腦對(duì)于信息的內(nèi)部加工過程為自身的理論前提,所以天生就帶有“知其然而不知其所以然”之弊。


人工智能系統(tǒng)所做的事情,就是在各種可能的輸入與輸出之間的映射關(guān)系中隨便選一種進(jìn)行“胡猜”,然后將結(jié)果拋給人類預(yù)先給定的“理想解”,看看自己瞎蒙的答案是不是恰好蒙中了。


這種低效學(xué)習(xí)的辦法是非常笨拙的,之所以在計(jì)算機(jī)那里能夠得到容忍,只是因?yàn)橛?jì)算機(jī)可以在很短的物理時(shí)間內(nèi)進(jìn)行海量次數(shù)的“胡猜”,并由此選出一個(gè)比較正確的解,而人類在相同時(shí)間能夠完成的猜測數(shù)量則是非常有限的。


此外,一個(gè)深度學(xué)習(xí)系統(tǒng)一般是以特定任務(wù)為指向的,無法同時(shí)勝任另一個(gè)領(lǐng)域的工作,因?yàn)樗囊粋€(gè)特點(diǎn)就是對(duì)于底層變化的干擾性極度敏感,遷移能力非常受限,而一個(gè)智力正常的人常常能在一個(gè)不熟悉的領(lǐng)域舉一反三,變通適應(yīng)。


從深度學(xué)習(xí)機(jī)制的本質(zhì)特征出發(fā),我們甚至能看到它的大規(guī)模運(yùn)用對(duì)于人類文明可能造成的潛在威脅。從哲學(xué)角度看,深度學(xué)習(xí)機(jī)制其實(shí)是濃縮了一個(gè)領(lǐng)域內(nèi)的人類智慧的平均意見,并以大量個(gè)體化的人類常識(shí)判斷的存在為其自身存在的邏輯前提。


如果我們把這些進(jìn)行判斷的人類個(gè)體以及其所依賴的人文背景都視為廣義的“人文資源”的一部分,那么,深度學(xué)習(xí)技術(shù)就可以被視為寄生在人文資源上的“技術(shù)寄生蟲”——它會(huì)慢慢揮霍人文資源的紅利,而本身卻不產(chǎn)生新的歷史發(fā)展可能性。


《中國科學(xué)報(bào)》:為什么您認(rèn)為人工智能不必依賴大數(shù)據(jù)?


徐英瑾:大數(shù)據(jù)技術(shù)試圖通過回避高級(jí)認(rèn)知架構(gòu)與思維路徑設(shè)計(jì)的方式,直接利用“信息高速公路”上涌現(xiàn)的數(shù)據(jù),由此完成原本的人工智能程序所試圖完成的某些任務(wù)。


但是,人們常常忽略,海量數(shù)據(jù)的計(jì)算是極其消耗能量的一件事,而且海量數(shù)據(jù)本身也不是人類社會(huì)的真正常態(tài)。人類的自然智能對(duì)應(yīng)的是“小數(shù)據(jù)”,人們常常是在信息稀缺的環(huán)境下去作出合理選擇的,這時(shí)人類智能動(dòng)用的是一種“節(jié)儉性算法”。


假設(shè)有這樣一張考卷,上面有一列由美國城市名字所構(gòu)成的對(duì)子,比如“斯普林菲爾德—舊金山”“芝加哥—小石城”,等等。


學(xué)生的任務(wù),是從每個(gè)對(duì)子里找出那個(gè)城市居民比較多的城市?,F(xiàn)在我們把考卷分為兩組:德國學(xué)生的答卷與美國學(xué)生的答卷。你猜哪一組的平均分會(huì)更高一點(diǎn)?


很多人都會(huì)認(rèn)為美國的學(xué)生考分更高,因?yàn)樵诓簧偃丝磥?,美國學(xué)生總要比德國學(xué)生掌握更多美國城市的信息。


但其實(shí)這個(gè)看法是偏頗的。作為一個(gè)大國,美國的行政區(qū)劃以及相關(guān)的人口情況異常復(fù)雜,即使是一般的美國人,也僅僅是“聽說過”不少城市的名字而已,而不太清楚所有城市的人口規(guī)模。對(duì)德國學(xué)生來說,思考反而更簡單。他們做題的時(shí)候遵循的是一條非常簡單的“捷思法”:凡是自己聽說過的美國城市,一般就都是大城市,而大城市一般人口就多。


總之,面對(duì)兩個(gè)城市的名字“二選一”時(shí),選那個(gè)看起來眼熟的地名就是了。試驗(yàn)證明,這種看似“簡單粗暴”的解題思路,成功率相當(dāng)了得。


這才是人類智能所展現(xiàn)的快速、高效的推理優(yōu)勢。節(jié)儉性算法的設(shè)計(jì)是根植于對(duì)人類現(xiàn)有心理機(jī)制的研究的,而不是對(duì)于直接的數(shù)據(jù)環(huán)境的研究的產(chǎn)物。


然而,深度學(xué)習(xí)是人工智能的主流,主流的深度學(xué)習(xí)是依賴于大數(shù)據(jù)的,大數(shù)據(jù)的處理方法中也往往會(huì)調(diào)用深度學(xué)習(xí)的一些方法,這成了一種路徑依賴。它背后的商業(yè)邏輯是,利用互聯(lián)網(wǎng)用戶所產(chǎn)生的龐大的數(shù)據(jù)紅利。


如果我們的目標(biāo)是讓人工智能逼近人類智能的話,就必須另辟蹊徑。麻煩的是,現(xiàn)代科技發(fā)展和牛頓時(shí)代本質(zhì)上已然不同,牛頓時(shí)代把追求真理作為第一目標(biāo),如今的人工智能捆綁了更多商業(yè)訴求,很多方向性的探索從一開始就可能被扼殺了。


《中國科學(xué)報(bào)》:您認(rèn)為的未來人工智能的發(fā)展方向是什么?


徐英瑾:符合大眾對(duì)于人工智能未來期待的一定是通用人工智能,它的意思是,能像人類那樣利用有限資源有效、經(jīng)濟(jì)地完成各種任務(wù)的人工智能系統(tǒng)。對(duì)此,我提出了一種帶有小數(shù)據(jù)主義色彩的綠色人工智能的概念。


這種人工智能系統(tǒng)的特點(diǎn)是,第一,這種人工智能并非是大數(shù)據(jù)技術(shù)或者深度學(xué)習(xí)技術(shù)的變種,而是能夠根據(jù)少量的數(shù)據(jù)作出決策與推理。它的行為方式類似于人類,人類也能夠在信息相對(duì)少的情況下作出決策,盡管決策的質(zhì)量未必高。但是這樣的決策活動(dòng)卻能夠在環(huán)境提出急需人類應(yīng)答挑戰(zhàn)的時(shí)候,使得人類具有起碼的環(huán)境適應(yīng)性;


第二,在人類那里,這樣的決策活動(dòng)很難擺脫情緒的影響,而是知、情、意協(xié)同運(yùn)作的產(chǎn)物。與之對(duì)應(yīng),基于小數(shù)據(jù)的人工智能也必須包含人工情緒與人工意圖的模塊,并在這種意義上具有通用人工智能的特點(diǎn);


第三,正是因?yàn)榛谛?shù)據(jù)的新型人工智能具有人類思維的一些特點(diǎn),所以它也像人類思維一樣,未必一定要通過接駁到“云”的方式進(jìn)行決策。本地化的信息處理在原則上也能滿足當(dāng)下的任務(wù)要求。這就使得此類人工智能具有一定的用戶隱私保護(hù)特性。


換言之,這樣的人工智能在雙重意義上將是“綠色”的:一方面對(duì)于小數(shù)據(jù)的容忍能夠帶來能耗的降低;另一方面對(duì)于本地化信息處理能力的支持能夠帶來對(duì)于隱私的保護(hù)。


《中國科學(xué)報(bào)》:越智能的機(jī)器越危險(xiǎn)嗎?


徐英瑾:如果我們把創(chuàng)造性作為體現(xiàn)智能的重要標(biāo)志,那么它本身就意味著不可預(yù)期性。我們必須在“設(shè)計(jì)非常愚蠢的,卻不可能背叛我們的人工智能”與“設(shè)計(jì)非常機(jī)智的,卻可能會(huì)在某些情況下背叛我們的人工智能”之間進(jìn)行選擇,而不存在第三條路。因?yàn)椤奥斆鳌北旧砭鸵馕吨熬邆鋵?duì)于背叛主人的邏輯可能性的預(yù)估力”。


《中國科學(xué)報(bào)》:人工智能需要怎樣的倫理規(guī)范?


徐英瑾:人工智能倫理學(xué)依然是一門非常不成熟的學(xué)科分支。實(shí)際上,目前在世界范圍內(nèi),推動(dòng)“人工智能倫理學(xué)”研究的并不是學(xué)院內(nèi)部的力量,而主要是各國官方與企業(yè)的力量,他們背后的動(dòng)機(jī)并不是立足于學(xué)科發(fā)展的內(nèi)部邏輯的。


比如,有軍方背景的人工智能倫理學(xué)家主要關(guān)心的是“能夠自動(dòng)開火的機(jī)器人”應(yīng)當(dāng)遵循的倫理規(guī)范問題,而歐洲議會(huì)在2016年發(fā)布的一份建議性文件甚至討論了將歐盟范圍內(nèi)普遍承認(rèn)的民權(quán)準(zhǔn)則賦予機(jī)器人的問題。


我認(rèn)為,這兩項(xiàng)問題的提出都已經(jīng)超越了目前人工智能的實(shí)際發(fā)展水平。因?yàn)樵谡J(rèn)知語義學(xué)的相關(guān)學(xué)術(shù)洞見還沒有被人工智能的編程作業(yè)所消化的情形下,現(xiàn)有的人工智能系統(tǒng)的語義表征能力實(shí)際上不足以編碼任何人類意義上的道德規(guī)范。


更有甚者,在夸大當(dāng)前人工智能發(fā)展水平的前提下,散布“人工智能威脅論”并在公眾之中制造了一些不必要的恐慌。我認(rèn)為,這種“憂患意識(shí)”好比是在一個(gè)核裂變的物理學(xué)方程式還未被搞清楚的時(shí)代就去擔(dān)心核戰(zhàn)的危險(xiǎn),只是現(xiàn)代版的“杞人憂天”罷了。


事實(shí)上,倫理編程問題不僅牽涉到軟件的編制,還牽涉到“怎樣的外圍設(shè)備才被允許與中央語義系統(tǒng)進(jìn)行恒久的接駁”這一問題。也就是說,機(jī)器倫理學(xué)的核心關(guān)涉不僅包括“心智”還有人工智能“身體”的設(shè)計(jì)規(guī)范。


事實(shí)上,太聰明的人工智能并不會(huì)對(duì)人類構(gòu)成威脅,而太聰明的人工智能與超強(qiáng)的外圍硬件設(shè)備的恒久組合,才會(huì)對(duì)人類構(gòu)成威脅。因?yàn)?,與人類迥異的身體圖式本身就會(huì)塑造出一個(gè)與人類不同的語義網(wǎng)絡(luò),從而使得人類的傳統(tǒng)道德規(guī)范很難附著其上。


舉例來說,研究軍用機(jī)器人的相關(guān)倫理專家所執(zhí)著的核心問題是,是否要賦予軍用機(jī)器人以自主開火權(quán)。


我認(rèn)為,只要投入戰(zhàn)爭的機(jī)器人具有全面的語義智能,主要體現(xiàn)在,它能夠理解從友軍作戰(zhàn)平臺(tái)上傳送來的所有指令和情報(bào)的語義,能夠?qū)膫鞲衅鞯玫降牡讓訑?shù)據(jù)轉(zhuǎn)化為語義信息,并具有在混雜情報(bào)環(huán)境中靈活決策的能力等,那么在原則上,我們就可以憑借它們的這種語義智能對(duì)其進(jìn)行“道德教化”,并期待它們像真正的人類戰(zhàn)士那樣知道應(yīng)當(dāng)在何種情況下開火。


因此,我們?cè)谲娛聜惱淼恼Z境中更需要解決的問題其實(shí)是,我們是否允許將特定的武器與機(jī)器人戰(zhàn)士的身體直接、恒久地接駁,因?yàn)檫@種直接接駁肯定會(huì)改變機(jī)器人戰(zhàn)士的身體圖式,從而使得人類對(duì)于它們的“教化”變得困難。


所以,人工智能倫理學(xué)的研究方向應(yīng)該“由軟轉(zhuǎn)硬”,從對(duì)于軟件編制規(guī)范的探討,轉(zhuǎn)向研究“怎樣的外圍硬件才允許與人工智能的中央處理器進(jìn)行接駁”這一嶄新的問題。




*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



關(guān)鍵詞: 深度學(xué)習(xí)

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉