新聞中心

EEPW首頁 > 業(yè)界動態(tài) > 馬斯克的“圣戰(zhàn)”:阻止人工智能毀滅人類

馬斯克的“圣戰(zhàn)”:阻止人工智能毀滅人類

作者: 時間:2017-03-31 來源:騰訊科技 收藏

  CEO埃隆·馬斯克(Elon Musk)以押注未來而聞名,但如今卻因?yàn)楣韫葥肀?a class="contentlabel" href="http://butianyuan.cn/news/listbylabel/label/人工智能">人工智能(AI)而膽戰(zhàn)心驚。于是,他開始了自己的“十字軍東征”,以避免人類將來被扼殺。

本文引用地址:http://butianyuan.cn/article/201703/346075.htm

  國外《名利場》對此進(jìn)行了深度報道,AI世代(微信號:tencentai)對文章進(jìn)行編譯整理如下:

  一、機(jī)器殺人狂

  這是一次關(guān)于人類未來命運(yùn)的友好爭論。戴密斯·哈薩比斯(Demis Hassabis)是高級(AI)的領(lǐng)先開發(fā)者,而埃隆·馬斯克(Elon Musk)是一位知名的預(yù)言者,二人曾針對人工智能的威脅進(jìn)行過針鋒相對的探討。

 

  戴密斯·哈薩比斯

  他們是硅谷最具影響力、最令人感興趣的兩個人,雖然二人均不住在硅谷。哈薩比斯是谷歌(微博)旗下人工智能實(shí)驗(yàn)室DeepMind聯(lián)合創(chuàng)始人兼CEO,數(shù)年前,他曾造訪馬斯克旗下太空探索技術(shù)公司SpaceX位于洛杉磯郊外的火箭工廠。二人在食堂里聊了起來,馬斯克說,SpaceX的終極目標(biāo)是這個世界上最重要的項(xiàng)目:星際殖民。

  而哈薩比斯回復(fù)道,其實(shí)他們正在從事的是才是世界上最重要的項(xiàng)目:開發(fā)人工超級智能。馬斯克接著說,這就是我們殖民火星的原因之一:將來如果人工智能向人類發(fā)起攻擊,我們還有一個藏身之地。哈薩比斯笑著說,那人工智能也會追著人類去火星。

  這番談話并未打消馬斯克對人工智能的擔(dān)憂,雖然他也相信人工智能跟蹤人類走上火星的可能性不大。

  哈薩比斯今年40歲,謙遜低調(diào),但不乏競爭意識,被視為幫助我們召喚“人工智能之子”的魔法師“梅林”(Merlin,魔幻電視劇《梅林傳奇》的主人公)。當(dāng)前,人工智能正在快速發(fā)展,但尚未達(dá)到馬斯克所設(shè)想的能夠威脅到人類的程度。目前,F(xiàn)acebook利用人工技術(shù)來提供精準(zhǔn)廣告服務(wù),微軟和蘋果利用人工智能來驅(qū)動其數(shù)字助手Cortana和Siri,谷歌搜索從一開始就依賴于人工智能技術(shù)。這些努力的最終目標(biāo)就是創(chuàng)建一種靈活的、能夠自我教育的人工智能,像人類能夠自我學(xué)習(xí)一樣。

  哈薩比斯是一位象棋高手,也曾經(jīng)是一位視頻游戲設(shè)計師,并設(shè)計了《邪惡天才》(Evil Genius)這款游戲。在游戲中,一位邪惡的科學(xué)家開發(fā)了一款“世界末日設(shè)備”,來主宰世界。知名風(fēng)險投資人、PayPal聯(lián)合創(chuàng)始人彼得·蒂爾(Peter Thiel)和馬斯克曾向《名利場》(Vanity Fair)雜志講述過一個故事:在DeepMind的一次投資者會議上,一位投資者臨走時開玩笑地說,應(yīng)該就地射殺哈薩比斯,因?yàn)檫@是挽救人類的最后機(jī)會。

 

  知名風(fēng)險投資人、PayPal聯(lián)合創(chuàng)始人彼得·蒂爾

  馬斯克3年前就發(fā)布警告,稱人工智能將來可能成為“殺人機(jī)器”。哈薩比斯的合伙人之一謝恩·萊格(Shane Legg)曾表示:“我認(rèn)為,人類將來可能會滅絕,而科技也許從中發(fā)揮部分作用。”

  在2014年被谷歌收購前,馬斯克曾是DeepMind投資者。馬斯克稱,他投資DeepMind不是為了獲得資金回報,而是要關(guān)注人工智能的發(fā)展。他說:“這會讓我了解人工智能的發(fā)展?fàn)顩r。我認(rèn)為,人工智能的發(fā)展速度真的很快,遠(yuǎn)超出人們預(yù)期。在日常生活中,我們很少能看到機(jī)器人走來走去。有機(jī)會看到的也就是Roomba這樣的掃地機(jī)器人,但它們無法主宰世界。”

  馬斯克曾在公開場合提醒好友和科技同行,稱他們可能正在創(chuàng)造毀滅自己的方法。例如,馬斯克曾對彭博社表示, 他擔(dān)心好友拉里·佩奇(Larry Page,谷歌聯(lián)合創(chuàng)始人)可能會在無意中偶然創(chuàng)造出一種“邪惡機(jī)器”,如能夠毀滅人類的人工智能機(jī)器人。

  在今年2月于迪拜舉行的“世界政府首腦峰會”上,馬斯克再次提及人工智能威脅論。他說:“有時,科學(xué)家們太過于專注自己的研究,以致于沒有真正意識到其后果。”他還稱,為了不被人工智能所淘汰,人類最終需要與機(jī)器相結(jié)合,成為一種“半機(jī)械人”。馬斯克說:“我認(rèn)為,隨著時間的推移,我們將看到生物智能與數(shù)字智能的緊密結(jié)合。”

  馬斯克對人工智能的擔(dān)憂始于2014年。當(dāng)時,他在麻省理工學(xué)院(MIT)發(fā)表演講時稱,人工智能可能是人類存在的最大威脅。他還稱:“我們應(yīng)該出臺一些國內(nèi)或國際監(jiān)管條例,以確保我們不做傻事。有了人工智能,就相當(dāng)于我們開始召喚惡魔。”

  馬斯克的這番言論被一些人工智能工程師認(rèn)為荒唐可笑,每當(dāng)他們休假后重返實(shí)驗(yàn)室,就會調(diào)侃說:“好了,讓我們重新開始召喚惡魔的工作吧!”

  馬斯克并沒有被他們逗笑,但他反對無拘無束的人工智能的征程卻已經(jīng)開始。

  二、馬斯克的“圣戰(zhàn)”

  當(dāng)提及“他被認(rèn)為是艾茵·蘭德(Ayn Rand,俄裔美籍作家)小說中的英雄人物”(強(qiáng)調(diào)個人主義和理性的利己主義)時,馬斯克笑著說:“蘭德的小說中有些極端的觀點(diǎn),但有些積極的觀點(diǎn)。”

  但是,如果要真正描寫馬斯克,蘭德可能還需要做些修改。例如,眼睛是灰色的,臉看起來要憔悴些,公眾形象沒那么幽默好笑。此外,蘭德還能從馬斯克復(fù)雜的個人生活中找到更多有價值的材料:第一任妻子是科幻作家賈絲廷·馬斯克(Justine Musk),他有五個兒子(試管技術(shù),一次是雙胞胎,一次是三胞胎),第二任妻子是英國演員妲露拉·萊莉(Talulah Riley)。馬斯克和萊莉經(jīng)歷了結(jié)婚、離婚、再結(jié)婚和再離婚。 

 

  馬斯克和第一任妻子賈絲廷·馬斯克

  

 

  馬斯克和第二任妻子妲露拉·萊莉

  作為一個平凡的女人,要想和馬斯克這樣長期癡迷于工作的人長期維持關(guān)系是件很困難的事情。馬斯克在接受彭博社記者阿什利·萬斯(Ashlee Vance)采訪時曾稱:“女人一周需要關(guān)注多長時間?10個小時?”

  每當(dāng)馬斯克、斯蒂芬·霍金(Stephen Hawking)和比爾·蓋茨(Bill Gates)談到人工智能的威脅時,許多人認(rèn)為這只是一個“10級火警”(發(fā)生的概率極小)。但馬斯克卻不以為然,他計劃傾注所有的資源來規(guī)范人工智能研發(fā),從而阻止這一切的發(fā)生。

  例如,馬斯克與Y Combinator總裁薩姆·奧特曼(Sam Altman)成立了非營利機(jī)構(gòu)OpenAI,旨在預(yù)防人工智能可能帶來的災(zāi)難性影響。如今,OpenAI喜遷新址,全職員工數(shù)量達(dá)到50人,另計劃招聘10人至30人。

  OpenAI 2016年6月公布了其主要目標(biāo),包括制造通用機(jī)器人和使用自然語言的聊天機(jī)器人。乍一看,OpenAI像是一個輕量級的面子工程,一群聰明的孩子們窩在低層公寓里,對抗谷歌、Facebook和其他科技公司數(shù)十億美元的人工智能項(xiàng)目,以及全世界頂尖的人工智能專家。

 

  但是,“以少勝多,以弱勝強(qiáng)”是馬斯克的專長,他經(jīng)常用自己的風(fēng)格來做這樣的事情。在硅谷其他公司紛紛專注于IPO股價時,馬斯克卻擁有著更偉大的目標(biāo),如解決全球變暖問題,殖民火星等。

  OpenAI本質(zhì)上是一個研究實(shí)驗(yàn)室。建立這個實(shí)驗(yàn)室的目的在于監(jiān)督企業(yè)和政府,以免這兩個群體依靠超級人工智能系統(tǒng)過度榨取利潤或者謀取權(quán)力,并以此壓制民眾。

  OpenAI也是帶著一個模糊的使命開始運(yùn)作的。這不足為奇,因?yàn)闃I(yè)界對于“采取怎樣的人工智能形式”、“人工智智能可以做什么”以及“如果去做”等問題,業(yè)內(nèi)專家也在探索中。到目前為止,針對人工智能的公共政策尚未出臺,軟件在很大程度上也不受管制。

  雖然馬斯克對人工智能持批評態(tài)度,但并不代表他對人工智能敬而遠(yuǎn)之。他的策略是進(jìn)攻。馬斯克認(rèn)為,首先要實(shí)現(xiàn)超級人工智能,然后在全球推廣這些技術(shù),而不是讓這些算法(人工智能技術(shù))隱藏或集中在少數(shù)科技或政府精英的手中。

  馬斯克說:“我認(rèn)為防范人工智能技術(shù)被誤用的最好辦法是盡可能讓更多的人可以使用人工智能技術(shù)。如果每一個人都可以使用這項(xiàng)技術(shù),那么這項(xiàng)‘超能力’就不會成為少數(shù)團(tuán)體的囊中法寶。”

  谷歌聯(lián)合創(chuàng)始人拉里·佩奇(Larry Page)和塞吉·布林(Sergey Brin)等科技精英都是馬斯克的好友,馬斯克說,佩奇和布林都認(rèn)為自己是人工智能的善意力量。但是,有時會事與愿違,一些事情可能會脫離他們最初的動機(jī)。

  馬斯克說:“馬可·奧勒利烏斯(Marcus Aurelius,羅馬皇帝)執(zhí)政期間,羅馬人民安居樂業(yè)。但到了卡里古拉(Caligula)執(zhí)政時,一切都變了。 ”

  三、人工智能卷土重來

  在經(jīng)歷了所謂的“人工智能寒冬”之后,人工智能如今再次成為硅谷的熱門話題。OpenAI首席技術(shù)官(CTO)格雷格·布羅克曼(Greg Brockman)稱,科技市場的下一個十年將圍繞人工智能而展開,幾乎每個人都會把錢投資給那些“少數(shù)了解人工智能咒語的巫師身上”。

  微軟計算機(jī)專家、“虛擬現(xiàn)實(shí)之父” 杰倫·拉尼爾(Jaron Lanier)向我們解釋了人工智能的誘人之處,他說:“有這樣一種觀點(diǎn)說,你們這些人工智能技術(shù)人員就是上帝,你們正在創(chuàng)造生活,你們正在改變現(xiàn)實(shí)。許多開發(fā)人員也有一種自戀傾向,只有我們能做這樣的事情,其他人根本做不到。教皇做不到,總統(tǒng)也做不到。我們就是人工智能的主宰……”

  在過去的幾年,谷歌幾乎收購了每一家有吸引力的機(jī)器人和機(jī)器學(xué)習(xí)公司。例如,以6.5億美元收購了DeepMind,隨又組建“谷歌大腦”團(tuán)隊(duì),專攻人工智能。此外,谷歌還聘請了英國人工神經(jīng)網(wǎng)絡(luò)專家杰弗里·希爾頓(Geoffrey Hinton)和未來學(xué)家雷·庫茲韋爾(Ray Kurzweil)。

  在佩奇的骨子里,以及谷歌的DNA中,都認(rèn)為公司走上人工智能之路不可避免。彭博社記者萬斯甚至表示:“如果 人工智能惹出什么事,我第一個就會想到谷歌。”如果谷歌能用電腦控制搜索(當(dāng)時是世界上最重要的問題),那就能用電腦做成任何事。

  去年3月,DeepMind開發(fā)的人工智能圍棋程序AlphaGo因戰(zhàn)勝人類圍棋頂尖高手李世石而震驚世界。哈薩比斯稱,AlphaGo簡直就是人工智能界的“阿波羅計劃”。最近,AlphaGo又在網(wǎng)上匿名狂虐各國圍棋高手,甚至實(shí)現(xiàn)了60-0的完勝戰(zhàn)績。

 

  無論是出于真心,還是公關(guān)目的,針對三年前的谷歌收購DeepMind交易,哈薩比斯提出了一個前提條件:雙方必須要組建一個人工智能倫理委員會。在三年前,這真的是一個彌足珍貴的舉措。這表明,哈薩比斯是在追求真正的人工智能。去年6月,DeepMind一名研究人員還發(fā)表了一篇論文, 給出了“緊急按鈕”解決方案,以阻止人工智能傷害人類。

  佩奇認(rèn)為,當(dāng)前的許多系統(tǒng)都沒有處于最佳狀態(tài)。但如果能引入人工智能,人們的需求就能更好地被滿足。這樣,人們就能有更多時間陪伴家人,或追求自己的興趣愛好。雖然是佩奇的好友,但馬斯克卻不同意他的觀點(diǎn),并認(rèn)為佩奇在這個問題上的看法太天真了。

  而一些硅谷人士認(rèn)為,馬斯克拯救世界是假,給自己貼金才是真。此外,馬斯克用“人機(jī)大戰(zhàn)”的劇情也是為了吸引人才,其真正目的并非阻止人工智能,而是阻止別人發(fā)展人工智能。

  但萬斯認(rèn)為,馬斯克的擔(dān)心是真實(shí)存在的,雖然馬斯克到底要拿什么對抗人工智能的崛起還是個未知數(shù)。萬斯說:“馬斯克的第一任妻子曾表示,他們夜里很晚還會討論人工智能的問題。”

  加州大學(xué)伯克利分校機(jī)器智能研究所(MIRI)聯(lián)合創(chuàng)始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)也認(rèn)同萬斯的觀點(diǎn),他說:“他可是馬斯克,如果想博得關(guān)注,根本不用談及人工智能,直接說移民火星就好了。”

  除了谷歌, Facebook也在發(fā)展人工智能。去年,在馬斯克宣布成立OpenAI僅三周,扎克伯格就發(fā)布了新年度挑戰(zhàn)任務(wù),其中包括打造一個全能的人工智能助手。

  扎克伯格曾表示:“人工智能能為我們所用,并協(xié)助我們工作。有些人認(rèn)為人工智能是個巨大的威脅,但我認(rèn)為,它的危險程度遠(yuǎn)不及疾病和暴力。”去年4月,扎克伯格在Facebook開發(fā)者大會上還稱:“相對于恐懼,我更愿意選擇希望。”

  在去年的圣誕節(jié)前,扎克伯格推出了人工智能助手“Jarvis”,還請來了好萊塢影星摩根·弗里曼(Morgan Freeman)為它配音。賈維斯雖然較為初級,但切個歌,開關(guān)個燈或烤個吐司,卻完全不在話下。但馬斯克卻認(rèn)為:“這種能自動完成家務(wù)的機(jī)器根本算不上人工智能,開關(guān)燈、調(diào)節(jié)溫度,這些都不是人工智能。”

  對于馬斯克的評價,扎克伯格不屑一顧。當(dāng)被問及馬斯克的“世界末日論”是“癡人說夢”還是“有理有據(jù)”,馬斯克選擇了前者。

  四、人工智能或造成歷史斷裂

  馬斯克和其他一些發(fā)表過人工智能威脅論的人有時被視為“小題大作”的人,但2016年1月,馬斯克贏得了“盧德獎”(Luddite Award,反技術(shù)進(jìn)步),頒發(fā)這個獎項(xiàng)的是華盛頓一家科技政策智囊。不過,馬斯克不是一個人在戰(zhàn)斗。

  英國著名物理學(xué)家霍金曾向BBC表示:“我認(rèn)為,人工智能的發(fā)展可能預(yù)示著人類的滅亡。”微軟聯(lián)合創(chuàng)始人比爾·蓋茨(Bill Gates)也表示,人工智能可能比核戰(zhàn)爭還要恐怖。牛津大學(xué)哲學(xué)教授尼克·博斯托姆(Nick Bostrom)2014年曾在《超級智能》(Superintelligence)一書中寫道:“一旦不友好的超級智能誕生,它就會阻止我們?nèi)ヌ鎿Q它,或改變其喜好。如果這樣,我們的命運(yùn)將被終結(jié)。”去年,美國前國務(wù)卿亨利·基辛格(Henry Kissinger)也表示,智能機(jī)器人可能造成歷史斷裂,甚至瓦解整個人類文明。

  2015年1月,馬斯克、博斯托姆和其他一些業(yè)內(nèi)專家齊聚波多黎各,參加一次行業(yè)會議。這次會議達(dá)成了一個共識:我們需要“火災(zāi)保險”。 當(dāng)我們遭遇火災(zāi)并深受其害時,人類發(fā)明了滅火器。當(dāng)車禍帶走人類生命時,我們發(fā)明了安全帶和氣囊。但在核武器和人工智能問題上,我們沒有吸取教訓(xùn)的機(jī)會,因此一次錯誤都不能犯,我們需要未雨綢繆。

  波多黎各會議過去半年后,馬斯克、霍金和哈薩比斯等1000多位業(yè)內(nèi)人士又簽署了一封聯(lián)名信,呼吁禁止進(jìn)攻性自動化武器。加州大學(xué)伯克利分校計算機(jī)科學(xué)教授斯圖亞特·魯塞爾(Stuart Russell)稱:“在過去的50年間,最近18個月對人工智能的未來發(fā)展至關(guān)重要。因?yàn)槿斯ぶ悄芙缃K于蘇醒,并開始認(rèn)真思考怎樣做才會有一個更美好的未來。”

  去年9月,美國五大科技巨頭谷歌、Facebook、亞馬遜、IBM和微軟罕見的攜起手來,成立了人工智能合作組織。此外,歐盟也開始探討機(jī)器人和人工智能方面的道德問題。

  去年1月,麻省理工學(xué)院物理學(xué)家麥克斯·泰格馬克(Max Tegmark)主持了一次人工智能安全會議。佩奇也參加了這次會議,馬斯克稱,他們之間的談話不再劍拔弩張了。馬斯克在會后稱,我們還有很長的路要走,但他同時表示:“硅谷的頂級科學(xué)家們真的開始認(rèn)真對待人工智能了,他們都意識到了這項(xiàng)技術(shù)的風(fēng)險。”

  風(fēng)險投資人蒂爾對馬斯克的“十字軍東征”有著不同的看法。他認(rèn)為,馬斯克聲勢浩大的抵制行為反而會推動人工智能的研究,因?yàn)樗?ldquo;世界末日論”提高了人們對人工智能的興趣。

  他說:“關(guān)于人工智能,當(dāng)前有一些非常棘手的問題。即使真的要確保人工智能安全,我們目前也沒有任何線索。我們甚至不知道人工智能是什么,更不用說如何來控制它們。”

  蒂爾還稱:“人工智能問題包括了人們對電腦時代的全部希望和恐懼,由于上述種種限制,人類的直覺可能會失靈,因?yàn)槲覀儚奈刺幚磉^比人類還聰明的實(shí)體”。

  五、與超級智能合二為一

  人們在人工智能領(lǐng)域的分歧,究竟孰是孰非? 未來學(xué)家、《奇點(diǎn)迫近》(The Singularity Is Near) 一書的作者雷·庫茲韋爾(Ray Kurzweil)稱:“當(dāng)前計算機(jī)對人類思考的貢獻(xiàn)頗大。就在幾年前,人工智能連貓和狗之間的差別都分不清。”

  庫茲韋爾還支持人與超級智能合二為一的想法。在描述這個想法時,他甚至使用了“我們”一詞,而擁有同樣想法的馬斯克則謹(jǐn)慎的選擇了“它們”。

  庫茲韋爾已經(jīng)意識到了人工智能的威脅。他說:“危險和希望相互交織。就像火一樣,它能取暖燒飯,但也可能燒掉你的房子。當(dāng)前,也有相應(yīng)的策略來控制這種危險。”

  庫茲韋爾還稱:“要想比計算機(jī)做得更好,我們要變得越來越聰明,而我們創(chuàng)造這些工具就是為了增強(qiáng)人類的能力。”

  庫茲韋爾預(yù)計,到本世紀(jì)30年代,人類將進(jìn)化成半機(jī)械人,通過神經(jīng)系統(tǒng)直接就能進(jìn)入虛擬現(xiàn)實(shí)(VR)和增強(qiáng)現(xiàn)實(shí)(AR)世界。他說:“屆時人人都將變成幽默大師,音樂造詣高超,智慧過人。”最終,會有許多貝多芬和愛因斯坦誕生。此外,血管中的納米機(jī)器人還能治療疾病,從身體內(nèi)部治愈我們的身體。

  庫茲韋爾認(rèn)為,馬斯克的設(shè)想可能會成真。人工智能可能很友好,但也可能不夠友好。一旦反叛,人類必須要與之一戰(zhàn),而唯一的戰(zhàn)勝方式可能就是再開發(fā)一個更聰明、聽從人類指揮的人工智能機(jī)器。

  對于機(jī)器人替代人類的說法,加州大學(xué)伯克利分校計算機(jī)科學(xué)教授魯塞爾并不認(rèn)同。他說,如果機(jī)器人替代了人類,這世界上就沒有意識存在了,無論它們創(chuàng)造出多少令人震驚的事情,這可能是最大的悲劇。博斯托姆也認(rèn)為,這樣的世界相當(dāng)于是“沒有孩子的迪士尼樂園”。

  魯塞爾說:“有人認(rèn)為,如果機(jī)器人在智力上超越人類,它們就會占領(lǐng)地球,并趕走人類。但也有人認(rèn)為,我們可以把自己的思維上傳到機(jī)器體內(nèi),這樣就能進(jìn)化成有意識的機(jī)器人。但我認(rèn)為,這種想法完全不可信。”

  魯塞爾也不認(rèn)同F(xiàn)acebook人工智能研究院院長、“卷積神經(jīng)網(wǎng)絡(luò)之父嚴(yán)·樂村(Yann LeCun)的觀點(diǎn)。樂村認(rèn)為,電影《機(jī)械姬》(Ex Machina)或《終結(jié)者》(Terminator)中的場景都不會出現(xiàn),因?yàn)闄C(jī)器人沒有人類的基本欲求,包括饑餓、權(quán)力、生育和自我保護(hù)。

  對于“無需擔(dān)心人工智能威脅”的觀點(diǎn),支持者通常有兩大理由:其一,這根本不會發(fā)生;其二;我們可以再開發(fā)一些機(jī)器人同盟軍,來對抗背叛的機(jī)器人。魯塞爾對這兩個理由給予了反駁,稱第一個理由就好比在說,我們正駕車駛向懸崖,但在到達(dá)之前,汽車油量一定會耗盡,這不是管理日常事物的良好方式。至于第二個理由,魯塞爾說:“如果你的機(jī)器人不同意你的計劃,如何與它們結(jié)成一個團(tuán)隊(duì)?”

  去年,微軟關(guān)停了自家人工智能聊天機(jī)器人Tay。本來,微軟對Tay寄予厚望,但上線后不到一天就開始發(fā)表不當(dāng)言論。馬斯克隨后表示:“看吧,讓聊天機(jī)器人變成希特勒,微軟只花了一天時間。”

  六、人類將走向何方?

  37歲的尤德科夫斯基是加州大學(xué)伯克利分校機(jī)器智能研究所(MIRI)的聯(lián)合創(chuàng)始人,他試圖弄清在現(xiàn)實(shí)中(而不是理論上)人類究竟能否根據(jù)意愿指揮人工智能。

  在接受采訪時,他率先拋出了一連串的問題,“假如你想為人工智能安裝一個緊急關(guān)閉按鈕,它會允許你安裝嗎?它會試圖弄掉這個按鈕嗎?它愿意讓你按下按鈕嗎?出問題時它會自己按下按鈕嗎?如果它能自行更改設(shè)置,它還愿意保留這個關(guān)閉按鈕嗎?我們正在研究這些問題,這些都不是簡單的問題。”

  尤德科夫斯基認(rèn)為:“人工智能想奪權(quán)根本不需要控制整個互聯(lián)網(wǎng),也不需要無人機(jī)。人工智能的危險不在于它們手上有槍,它們之所以危險,是因?yàn)楸热祟惛斆鳌<僭O(shè)它們能根據(jù)DNA信息來預(yù)測蛋白質(zhì)結(jié)構(gòu),只需發(fā)幾封郵件給實(shí)驗(yàn)室,就能合成特定的蛋白質(zhì)。這樣,它們很快就會擁有自己的分子機(jī)器,還能建造更高端的分子機(jī)器。 ”

  尤德科夫斯基說:“預(yù)測人工智能的威脅,不要想象科幻電影中紅著眼睛的人形金屬機(jī)器人,它真正的威脅來自那些看不到的、由金剛石構(gòu)成的合成細(xì)菌,它們會載著微型電腦進(jìn)入人類血液。之后,只要它們釋放一微克的肉毒桿菌毒素,人類就會倒下。當(dāng)然,人工智能究竟會不會這樣做,目前還很難預(yù)測,因?yàn)閷脮r它們的智力已經(jīng)超越人類。因此,當(dāng)你制造一個比你還聰明的事物時,第一次嘗試就不能出任何差錯。”

  再回到之前對馬斯克和奧特曼的采訪,他們也認(rèn)為,不要被單純的“殺戮機(jī)器人”所分心。馬斯克說:“人工智能的的恐怖之處不在于它要化身為機(jī)器人,相反它會成為網(wǎng)絡(luò)上的算法,最終機(jī)器人就會變成終端效應(yīng)器,無限的散播是最難阻擋之處。”

  馬斯克還舉例說:“假如你開發(fā)一個可以自我升級的人工智能來摘草莓,這個人工智能可以干得越來越好,摘得越來越多。但是,它想做的事情就是摘草莓,所以可能把全世界都變成草莓園,而且永遠(yuǎn)都是草莓園。這樣,人類就沒有生存空間了。”

 

  奧特曼也表示:“一個能控制整個互聯(lián)網(wǎng)的人工智能算法,要比控制機(jī)器人的人工智能算法更強(qiáng)大,因?yàn)槲覀兊纳钤缫雅c互聯(lián)網(wǎng)密不可分。”

  當(dāng)被問及人類能否開發(fā)出用來終結(jié)人工智能機(jī)器人的”緊急按鈕“時,馬斯克說:“我是不想成為那個手持緊急按鈕的人,因?yàn)槿斯ぶ悄軙谝粋€來殺掉我。”

  奧特曼則開玩笑地說:“活著真好。未來幾十年,人類要么走向自我毀滅,要么殖民宇宙。”

  馬斯克補(bǔ)充說:“是的,如果你相信宇宙‘熱寂理論’,那么我們已經(jīng)都在路上了。”“熱寂理論”是猜想宇宙終極命運(yùn)的一種假說。在這樣的宇宙中,再也沒有任何可以維持運(yùn)動或是生命的能量存在。



關(guān)鍵詞: 人工智能 特斯拉

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉