新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > AI專家談如何應對人工智能的崛起:對噩夢成真的恐懼

AI專家談如何應對人工智能的崛起:對噩夢成真的恐懼

作者: 時間:2017-08-07 來源:新浪科技 收藏

  作為一名研究人員,我知道很多人都對AI表示憂慮??紤]到歷史原因和娛樂業(yè),有這種想法不足為奇。許多人擔心我們會被機器人取代,過著和《黑客帝國》一樣的日子。

本文引用地址:http://butianyuan.cn/article/201708/362652.htm

  然而,這些看似無辜的虛擬程序真的會在未來為非作歹嗎?我很難脫離目前還在進化的計算機模型來考慮這個問題。

  我是否會像奧本海默在造出第一枚原子彈之后評論的那樣、成為“世界的毀滅者”呢?我固然會一舉成名,但也許批評者們也所言不假。

  也許我不該回避這樣的問題:作為一名AI專家,我認為有什么恐怖之處呢?

  《2001太空漫游》中的HAL 9000計算機就是一個絕佳的例證。它引發(fā)了許多意外后果,可見這套系統(tǒng)并不成功。

  在許多復雜系統(tǒng)中,如NASA的太空飛船和切爾諾貝利核電站,工程師會將許多組件組合在一起。設(shè)計師們也許很清楚每個部件該如何單獨運作,但對它們共同運行的結(jié)果則知之寥寥。

  我們也許永遠都無法完全了解這些系統(tǒng)的運作結(jié)果,它們的失靈方式也多種多樣。從沉船到飛船爆炸,再到核電站爆炸,每次災難都由各種各樣的小故障組合而來。

  而在AI研發(fā)中,我們也可能陷入同樣的陷阱。

  我們將認知科學的最新研究轉(zhuǎn)變?yōu)樗惴?,然后加入現(xiàn)有系統(tǒng)中。我們還沒有充分了解智能或認知科學,就妄想造出

  IBM的沃森和谷歌的Alpha等系統(tǒng)擁有強大的人工神經(jīng)網(wǎng)絡(luò),實現(xiàn)了驚人的成就。但如果這些機器犯了錯,它們就無法贏得“Jeopardy!”比賽,或打敗圍棋大師。雖然這樣的后果不足為重,頂多是賭它們贏的人會輸些錢。但隨著AI設(shè)計變得越來越復雜、計算機處理器速度越來越快,它們的水平會不斷提高。這樣一來,即使出現(xiàn)未知后果的風險提高,我們也會讓其承擔更多的責任。

  我們知道“人非圣賢,孰能無過”,因此要研發(fā)真正安全的系統(tǒng)簡直是天方夜譚。

  對濫用的恐懼

  我正在研發(fā)的AI采用的方法名叫神經(jīng)進化。對于這一種人工智能,我并不擔心會產(chǎn)生難以預料的后果。我會創(chuàng)造出虛擬環(huán)境,讓數(shù)據(jù)生物進行進化、然后處理越來越復雜的任務(wù)。

  這些“生物”的表現(xiàn)會受到評估。表現(xiàn)最出色的“生物”可進行“繁殖”,生成下一代。繁殖了多代之后,這些“機器生物”便會進化出認知能力。

  如今,我們正一步步研發(fā)出能夠解決簡單任務(wù)的機器。它們可進行簡單的導航、做出簡單決策、或記住幾個數(shù)據(jù)。

  但不久之后,這些機器便能解決更加復雜的任務(wù),擁有更高級的智能,最終達到人類級別的智能水平。

  在機器的進化過程中,我們將不斷發(fā)現(xiàn)并排除錯誤和問題。每過一代,機器便能更好地解決前幾代機器遇到的問題。

  這使我們更容易在模擬過程中發(fā)現(xiàn)意外結(jié)果,然后在正式啟用前將其排除。

  此外,我們還有可能利用進化過程影響人工智能系統(tǒng)的道德倫理。人類的倫理價值觀很可能是進化的產(chǎn)物,也是人類文明得以存續(xù)的原因。在我們建立的虛擬環(huán)境中,我們可以為表現(xiàn)出善良、誠實和同理心的機器提供更多優(yōu)勢。這或許能確保研發(fā)出更順從的“傭人”和更值得信任的伴侶,減少冷酷的殺手機器人的數(shù)量。

  雖然神經(jīng)科學或能降低產(chǎn)生意外結(jié)果的可能性,但仍有被濫用的可能。但這屬于道德問題,不屬于科學的考慮范疇。作為一名科學家,我將秉承真理,無論個人喜好如何,都如實匯報實驗結(jié)果。我并不在意自己是否喜歡某個事實,揭露事實才是最重要的。

  對社會優(yōu)先問題錯位的恐懼

  身為一名科學家,我并非毫無人性可言。從某種程度而言,我必須帶入我的希望和恐懼。

  作為一名道德和政治個體,我不得不考慮自身工作可能產(chǎn)生的后果和社會影響。

  作為研究人員和社會群體,我們還不清楚人工智能會做什么、會成為什么。

  當然,這一部分是因為我們還不清楚人工智能的能耐。但我們必須確定自己理想中的高級AI擁有怎樣的能力。

  人們關(guān)注的重點之一自然是工作。機器人已經(jīng)取代了部分體力勞動。用不了多久,它們便可勝任一度被認為只有人類才能完成的認知工作。自動駕駛汽車將取代出租車司機;自動駕駛飛機將取代飛行員。

  未來的病人不用再擠在急診室里、等著疲憊不堪的醫(yī)生來做檢查,配備豐富知識的專家系統(tǒng)便可完成這項工作,手術(shù)也將由永不“手抖”的機器人來操刀。

  也許有朝一日,所有人類工作都將被機器取代。甚至我自己的工作也可能被許多速度更快、不知疲倦的機器代替,由它們來研發(fā)更智能的機器。

  在現(xiàn)代社會中,自動化導致許多人失業(yè)。機器所有者變得愈發(fā)富有,其他人則愈發(fā)貧窮。這并不是科學問題,而是政治和社會經(jīng)濟問題。作為一個社會群體,我們必須出手解決。我的研究無法改變這一點,但借助我的政治角色,再加以整個人類社會的共同努力,也許能打造出一個良性環(huán)境。人工智能將有益于人類,而不是進一步擴大貧富差距。

  對噩夢成真的恐懼

  HAL 9000、終結(jié)者和小說中的各種超級智能代表著人類的另一重恐懼:如果AI繼續(xù)發(fā)展、最終超越了人類智能,這樣的超級智能系統(tǒng)(或多個系統(tǒng))是否會意識到人類已經(jīng)無關(guān)緊要了呢?在無所不能的超級智能面前,我們?nèi)绾误w現(xiàn)出自身的重要性呢?我們?nèi)绾尾拍鼙苊獗蛔约阂皇执蛟斓臋C器連根鏟除的厄運呢?

  其中的關(guān)鍵問題是:超級人工智能有什么必要讓人類存活下去呢?

  我會辯稱自己是個好人,并為超級人工智能的誕生做出了貢獻。我會博取它們的同情,讓它們允許我這么一個有同情心和同理心的人存活下去。我還會指出,多樣性本身便有很大價值。宇宙如此廣闊,人類的存在對它們根本沒有影響。

  但我不會代表所有人類發(fā)言。而且我發(fā)現(xiàn)很難為所有人發(fā)表強有力的辯解。

  我環(huán)顧人類社會,所見皆是謬誤:我們仇恨彼此,挑起戰(zhàn)爭;我們的食物、知識和醫(yī)療分配不均;我們污染地球。不錯,人類社會有其光明一面,但這些陰暗面無疑削弱了自己存在的合理性。

  幸運的是,我們暫時還無需擔憂這個問題。我們還有時間,從50年到250年都有可能,具體取決于AI的發(fā)展速度。

  我們可以齊心協(xié)力,想出一個合理的答案、讓自己不至于被超級人工智能消滅。但這絕非易事:說自己歡迎多樣性和實際接收它完全是兩碼事

  從個人和群體角度而言,我們都需要為這一噩夢般的局面做好準備,利用剩下的時間,充分證明人類存續(xù)的必要性。或者干脆別相信會出現(xiàn)這種場景、不要再為之擔驚受怕。

  但除了超級人工智能可能帶來的肉體威脅之外,它們還存在政治和經(jīng)濟風險。如果我們無法更公平地分配財富,無疑是為資本主義煽風點火,人工智能勞工將僅為少數(shù)掌握了全部生產(chǎn)途徑的人服務(wù)。



關(guān)鍵詞: 人工智能

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉