新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 霍金:人工智能要么為人所用 要么終結(jié)人類

霍金:人工智能要么為人所用 要么終結(jié)人類

作者: 時間:2017-05-02 來源:網(wǎng)易智能 收藏
編者按:霍金認(rèn)為,人工智能的崛起要么成為人類歷史上最好的事,要么成為最糟糕的事情。所以,霍金呼吁人類研究人工智能一定要規(guī)避風(fēng)險,并警告人類意志轉(zhuǎn)變的人工智能可能會毀滅人類。

  當(dāng)前控制技術(shù)的工具,例如強化學(xué)習(xí),簡單實用的功能,還不足以解決這個問題。因此,我們需要進(jìn)一步研究來找到和確認(rèn)一個可靠的解決辦法來掌控這一問題。

本文引用地址:http://butianyuan.cn/article/201705/358613.htm

  近來的里程碑,比如說之前提到的自主駕駛汽車,以及贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入傾注到這項科技。我們目前所取得的成就,和未來幾十年后可能取得的成就相比,必然相形見絀。而且我們遠(yuǎn)不能預(yù)測我們能取得什么成就,當(dāng)我們的頭腦被放大以后。也許在這種新技術(shù)革命的輔助下,我們可以解決一些工業(yè)化對自然界造成的損害。關(guān)乎到我們生活的各個方面都即將被改變。簡而言之,人工智能的成功有可能是人類文明史上最大的事件。

  但是人工智能也有可能是人類文明史的終結(jié),除非我們學(xué)會如何避免危險。我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。今年早些時候,我和一些來自世界各國的科學(xué)家共同在聯(lián)合國會議上支持其對于核武器的禁令。我們正在焦急的等待協(xié)商結(jié)果。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農(nóng)田,最可怕的危害是誘發(fā)核冬天,火和煙霧會導(dǎo)致全球的小冰河期。這一結(jié)果使全球糧食體系崩塌,末日般動蕩,很可能導(dǎo)致大部分人死亡。我們作為科學(xué)家,對核武器承擔(dān)著特殊的責(zé)任,因為正是科學(xué)家發(fā)明了它們,并發(fā)現(xiàn)它們的影響比最初預(yù)想的更加可怕。

  現(xiàn)階段,我對災(zāi)難的探討可能驚嚇到了在座的各位。很抱歉。但是作為今天的與會者,重要的是,你們要認(rèn)清自己在影響當(dāng)前技術(shù)的未來研發(fā)中的位置。我相信我們團(tuán)結(jié)在一起,來呼吁國際條約的支持或者簽署呈交給各國政府的公開信,科技領(lǐng)袖和科學(xué)家正極盡所能避免不可控的人工智能的崛起。

  一個新的機構(gòu),試圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無定論的問題。“利弗休姆智能未來中心”是一個跨學(xué)科研究所,致力于研究智能的未來,這對我們文明和物種的未來至關(guān)重要。我們花費大量時間學(xué)習(xí)歷史,深入去看——大多數(shù)是關(guān)于愚蠢的歷史。所以人們轉(zhuǎn)而研究智能的未來是令人欣喜的變化。雖然我們對潛在危險有所意識,但我內(nèi)心仍秉持樂觀態(tài)度,我相信創(chuàng)造智能的潛在收益是巨大的。也許借助這項新技術(shù)革命的工具,我們將可以削減工業(yè)化對自然界造成的傷害。

  我們生活的每一個方面都會被改變。我在研究所的同事休·普林斯承認(rèn),“利弗休姆中心”能建立,部分是因為大學(xué)成立了“存在風(fēng)險中心”。后者更加廣泛地審視了人類潛在問題,“利弗休姆中心”的重點研究范圍則相對狹窄。

  人工智能的最新進(jìn)展,包括歐洲議會呼吁起草一系列法規(guī),以管理機器人和人工智能的創(chuàng)新。令人感到些許驚訝的是,這里面涉及到了一種形式的電子人格,以確保最有能力和最先進(jìn)的人工智能的權(quán)利和責(zé)任。歐洲議會發(fā)言人評論說,隨著日常生活中越來越多的領(lǐng)域日益受到機器人的影響,我們需要確保機器人無論現(xiàn)在還是將來,都為人類而服務(wù)。向歐洲議會議員提交的報告,明確認(rèn)為世界正處于新的工業(yè)機器人革命的前沿。報告中分析的是否給機器人提供作為電子人的權(quán)利,這等同于法人(的身份),也許有可能。報告強調(diào),在任何時候,研究和設(shè)計人員都應(yīng)確保每一個機器人設(shè)計都包含有終止開關(guān)。在庫布里克的電影《2001太空漫游》中,出故障的超級電腦哈爾沒有讓科學(xué)家們進(jìn)入太空艙,但那是科幻。我們要面對的則是事實。奧斯本·克拉克跨國律師事務(wù)所的合伙人,洛納·布拉澤爾在報告中說,我們不承認(rèn)鯨魚和大猩猩有人格,所以也沒有必要急于接受一個機器人人格。但是擔(dān)憂一直存在。報告承認(rèn)在幾十年的時間內(nèi),人工智能可能會超越人類智力范圍,人工智能可能會超越人類智力范圍,進(jìn)而挑戰(zhàn)人機關(guān)系。報告最后呼吁成立歐洲機器人和人工智能機構(gòu),以提供技術(shù)、倫理和監(jiān)管方面的專業(yè)知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會。它將在三個月的時間內(nèi)決定要采取哪些立法步驟。

  我們還應(yīng)該扮演一個角色,確保下一代不僅僅有機會還要有決心,在早期階段充分參與科學(xué)研究,以便他們繼續(xù)發(fā)揮潛力,幫助人類創(chuàng)造一個更加美好的的世界。這就是我剛談到學(xué)習(xí)和教育的重要性時,所要表達(dá)的意思。我們需要跳出“事情應(yīng)該如何”這樣的理論探討,并且采取行動,以確保他們有機會參與進(jìn)來。我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者。我祝福你們。

  謝謝!

  以下為中國科技大咖、科學(xué)家、投資家和網(wǎng)友與霍金問答實錄:

  創(chuàng)新工場的CEO李開復(fù)(問):互聯(lián)網(wǎng)巨頭擁有巨量的數(shù)據(jù),而這些數(shù)據(jù)會給他們各種以用戶隱私和利益換取暴利的機會。在巨大的利益誘惑下,他們是無法自律的。而且,這種行為也會導(dǎo)致小公司和創(chuàng)業(yè)者更難創(chuàng)新。您常談到如何約束人工智能,但更難的是如何約束人本身。您認(rèn)為我們應(yīng)該如何約束這些巨頭?

  霍金:據(jù)我了解,許多公司僅將這些數(shù)據(jù)用于統(tǒng)計分析,但任何涉及到私人信息的使用都應(yīng)該被禁止。會有助于隱私保護(hù)的是,如果互聯(lián)網(wǎng)上所有的信息,均通過基于量子技術(shù)加密,這樣互聯(lián)網(wǎng)公司在一定時間內(nèi)便無法破解。但安全服務(wù)會反對這個做法。

  第二個問題來自于獵豹移動CEO傅盛(問):靈魂會不會是量子的一種存在形態(tài)?或者是高維空間里的另一個表現(xiàn)?

  霍金:我認(rèn)為近來人工智能的發(fā)展,比如電腦在國際象棋和圍棋的比賽中戰(zhàn)勝人腦,都顯示出人腦和電腦并沒有本質(zhì)差別。這點上我和我的同事羅杰·彭羅斯正好相反。會有人認(rèn)為電腦有靈魂嗎?對我而言,靈魂這個說法是一個基督教的概念,它和來世聯(lián)系在一起。我認(rèn)為這是一個童話故事。

  第三個問題來自于百度總裁張亞勤(問):人類觀察和抽象世界的方式不斷演進(jìn),從早期的觀察和估算,到牛頓定律和愛因斯坦方程式,到今天數(shù)據(jù)驅(qū)動的計算和人工智能,下一個是什么?

  霍金:我們需要一個新的量子理論,將重力和其他自然界的其它力量整合在一起。許多人聲稱這是弦理論,但我對此表示懷疑,目前唯一的推測是,時空有十個維度。

  第四個問題來自于斯坦福大學(xué)物理學(xué)教授張首晟(問):如果讓你告訴外星人我們?nèi)祟惾〉玫淖罡叱删停瑢懺谝粡埫餍牌谋趁?,您會寫什?

  霍金:告訴外星人關(guān)于美,或者任何可能代表最高藝術(shù)成就的藝術(shù)形式都是無益的,因為這是人類特有的。我會告訴他們哥德爾不完備定理和費馬大定理。這才是外星人能夠理解的事情。

  文廚(問):我們希望提倡科學(xué)精神,貫穿GMIC全球九站,清您推薦三本書,讓科技屆的朋友們更好的理解科學(xué)及科學(xué)的未來。

  霍金:他們應(yīng)該去寫書而不是讀書。只有當(dāng)一個人關(guān)于某件事能寫出一本書,才代表他完全理解了這件事。

  微博用戶(問):您認(rèn)為一個人一生中最應(yīng)當(dāng)做的一件事和最不應(yīng)當(dāng)做的一件事是什么?”

  霍金:我們絕不應(yīng)當(dāng)放棄,我們都應(yīng)當(dāng)盡可能多的去理解(這個世界)。

  微博用戶(問):人類在漫漫的歷史長河中,重復(fù)著一次又一次的革命與運動。從石器、蒸汽、電氣……您認(rèn)為下一次的革命會是由什么驅(qū)動的?

  霍金:(我認(rèn)為是)計算機科學(xué)的發(fā)展,包括人工智能和量子計算??萍家呀?jīng)成為我們生活中重要的一部分,但未來幾十年里,它會逐漸滲透到社會的每一個方面,為我們提供智能地支持和建議,在醫(yī)療、工作、教育和科技等眾多領(lǐng)域。但是我們必須要確保是我們來掌控人工智能,而非它(掌控)我們。

  最后一個問題來自于音樂人、投資者胡海泉(問):如果星際移民技術(shù)的成熟窗口期遲到,有沒有完全解決不了的內(nèi)發(fā)災(zāi)難導(dǎo)致人類滅絕?拋開隕星撞地球這樣的外來災(zāi)難。

  霍金:是的。人口過剩、疾病、戰(zhàn)爭、饑荒、氣候變化和水資源匱乏,人類有能力解決這些危機。但很可惜,這些危機還嚴(yán)重威脅著我們在地球上的生存,這些危機都是可以解決的,但目前還沒有。


上一頁 1 2 下一頁

關(guān)鍵詞: 人工智能

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉