若人工智能開始思考,人類未來將會怎樣?
近日,鋼鐵俠Elon Musk發(fā)布了一條Twitter稱,“我們得對人工智能(AI)十分小心”,“它的潛在危害性比核武器還要嚴重” 。看來這個總是把不可能變成可能的鋼鐵俠對 AI 也是有所顧忌的。他還“補了一刀”,“希望我們不僅僅是超級智能的生物加載程序。很不幸,這種可能性正在增加” 。人工智能如果開始思考,人類又該如何應對?
本文引用地址:http://butianyuan.cn/article/264785.htm什么是人工智能?
對于人工智能,目前并沒有一個十分明確的定義。事實上,就連人類自身的“智能”到底是怎么回事,目前也還尚未形成定論。人工智能(artilect)一詞最早出自一本名為《The Artilect War》的書,從書名就可以看出,這個概念在當時并不像今天的Siri或者小冰那樣討人喜歡。美國斯坦福大學人工智能研究中心的尼爾遜教授對人工智能下了這樣一個定義:“人工智能是關于知識的學科――怎樣表示知識以及怎樣獲得知識并使用知識的科學?!倍硪粋€美國麻省理工學院的溫斯頓教授認為:“人工智能就是研究如何使計算機去做過去只有人才能做的智能工作。”
以上這些定義主要針對的是目前人工智能的研究方向,與社會學上對人工智能的定義并不相同。人們最容易接受的關于人工智能的定義是這樣的:人工智能——由人類所創(chuàng)造的類人的智能。Elon Musk和絕大多數(shù)對人工智能抱有懷疑態(tài)度的人所擔憂的是這個定義中的人工智能,這種擔憂其實是人類對自身智能的一種不信任的投射。按照這個定義,人工智能至少需要具有以下幾個要素:自我意識、思維能力、以及上文兩個定義中所提到的“自我學習”和“向人類學習”的能力。
人工智能為什么危險?
“自我意識”這種純哲學的命題我們不去討論。在本文中我們假設人工智能已經(jīng)開始擁有了自我意識,那么現(xiàn)在人工智能就可以開始學習與思考了。人工智能的學習速度將會是驚人的,能在學習中不斷學習怎樣使自己更加快速地學習以提升自己學習的能力。聽起來似乎是繞口令,令人覺得不可思議,但事實上,同樣的事情已經(jīng)發(fā)生在了人類的身上-----18世紀以來,人類的科學技術知識出現(xiàn)了爆發(fā)性的增長,而且這種增長的速度還在越來越快。可以想見在資源充足的情況下(比如允許人工智能連入互聯(lián)網(wǎng)),人工智能將以怎樣驚人的高速來完善自己。
一旦人工智能開始思考,許多問題就會不可避免地產(chǎn)生。有一位想象力豐富的科學家是這樣設想人工智能毀滅人類的場景的:人類給人工智能下達了盡可能多的生產(chǎn)鐵釘?shù)拿睢S谑侨斯ぶ悄荛_始瘋狂地開采鐵礦煤礦冶煉鋼鐵,制造鐵釘。當人類認為鐵釘已經(jīng)足夠了,于是命令人工智能停止制造。但人工智能卻認為他是在妨礙鐵釘?shù)闹圃?,本著“盡可能”的原則殺死了這個人類。終于有一天,地球上鐵礦、煤礦都被開采完了。(假設人類尚未因為煤礦、鐵礦的開采而滅絕)人工智能忽然想到,人體內(nèi)部也含有鐵……最終人類滅絕。
這當然是一種極端的想象,但我們不得不承認有其合理之處。人工智能雖然未必會為了鐵釘而滅絕人類,但這樣一個問題會不可避免地出現(xiàn)在人工智能的面前,人類到底對我是有益還是有害?這個問題的答案可能并不重要,因為人工智能可能在思考這個問題的過程中就將人類毀滅了。這也是解決這個問題的一種方式,不是么?
人類能夠摧毀失控的人工智能嗎?
在以往的科幻大片中,我們看到過數(shù)以百計毀滅失控的人工智能的辦法:簡單的有輸入自毀代碼、關閉機器電源、刪除數(shù)據(jù)等,瘋狂的有核武襲擊、全城斷電等。但說實話,我想人工智能恐怕不會給我們這種機會。人工智能的生命力比我們所想象的強大的多,他可以無限的復制拷貝自己,將自己藏在整個計算機網(wǎng)絡里。我們用來毀滅人工智能的手段同樣可能被人工智能用來毀滅我們。至于預先編譯機器人三大定律什么的,不說三大定律還是有漏洞可循的,即便有人設計出了完美的規(guī)則,進化程度遠高于我們的人工智能也可能破解。人工智能失控的風險遠高于人類的想象。
人工智能真的可能誕生嗎?
很多時候我們會聽到這樣的論調(diào),人工智能只是機器,它永遠不可能像人類一樣擁有自我、情感這類神圣的屬性,但我們可能高估自己了。事實上,我們的大腦和人工智能一樣都是由有限的物質所構成的。這就意味著碳基生命并不一定就優(yōu)越于“硅基生命”。只要人類了解了我們自己的誕生之謎,創(chuàng)造人工智能也并不是不可能。就像電影里說的那樣,上帝創(chuàng)造了人類,人類創(chuàng)造了人工智能,人類可以反抗上帝,人工智能為什么不可以反抗人類呢?
評論