新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 人工智能對(duì)人類的兩次暴擊,人類開始細(xì)思極恐

人工智能對(duì)人類的兩次暴擊,人類開始細(xì)思極恐

作者: 時(shí)間:2017-11-22 來(lái)源:科技日?qǐng)?bào) 收藏

  索菲亞不是人,她只是個(gè)很聰明的機(jī)器人;索菲亞又是“人”,不久前,她被沙特授予公民身份,加入人類籍。

本文引用地址:http://butianyuan.cn/article/201711/371850.htm

  索菲亞很友好,與人談笑自如,甚至還會(huì)眼神交流,并在MV里與歌星王力宏“結(jié)了婚”;索菲亞又很“恐怖”,聲稱未來(lái)目標(biāo)是想去上學(xué),成立家庭,并——毀滅人類。

  無(wú)論這句話是調(diào)侃還是隱喻,設(shè)計(jì)出她的人類,尷尬了。

  在近日召開的“的技術(shù)、倫理與法律的關(guān)鍵科學(xué)問題”的香山科學(xué)會(huì)議上,中科院科技戰(zhàn)略咨詢研究院研究員李真真舉索菲亞的例子,是想提出一個(gè)問題:在技術(shù)高歌猛進(jìn)的同時(shí),不斷模糊著物理世界和個(gè)人的界限,不斷刷新人的認(rèn)知和社會(huì)關(guān)系,延伸出復(fù)雜的倫理、法律和安全問題,但相應(yīng)的規(guī)范和制度設(shè)計(jì)還存在盲區(qū),這是一個(gè)極大的挑戰(zhàn)。

  “我國(guó)的技術(shù)可謂與世界發(fā)達(dá)國(guó)家‘同步’,但倫理和法律研究則嚴(yán)重滯后,這種‘缺位’會(huì)制約我們未來(lái)的發(fā)展。”李真真說(shuō)。

  為構(gòu)建一個(gè)人工智能健康發(fā)展的倫理和法律環(huán)境,來(lái)自自然科學(xué)、人文社會(huì)科學(xué)領(lǐng)域的專家學(xué)者和產(chǎn)業(yè)界人士聚集在一起,嘗試跨越學(xué)科的鴻溝,尋找共同的交集,研討人工智能最基本的問題。

  人工智能很牛嗎?牛,但也有可能犯大錯(cuò)

  人工智能火了!人工智能牛了!很大程度歸功于近年來(lái)一只不斷進(jìn)化的“狗”——阿爾法狗(AlphaGo)。

  中科院院士張鈸簡(jiǎn)單分析了人工智能發(fā)展的兩條路徑:一是符號(hào)主義,即從信息處理的宏觀層面去模擬智能;二是連接主義,即從網(wǎng)絡(luò)介觀層面去模擬人類行為。當(dāng)人工智能的開拓者提出上述方向時(shí),不少人認(rèn)為不可能,但事實(shí)證明這兩條路都行得通。

  “人工智能第一次震撼,是IBM的‘深藍(lán)’程序打贏國(guó)際象棋冠軍,這是用計(jì)算機(jī)模擬人類下象棋的理性思考過(guò)程,證明了符號(hào)主義這一條路走得通。”張鈸說(shuō)。

  人工智能第二次對(duì)人類的“暴擊”,是基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí),AlphaGo拋棄了傳統(tǒng)圍棋程序的編程方法,創(chuàng)造性地利用機(jī)器學(xué)習(xí),來(lái)獲取下棋的經(jīng)驗(yàn)與直覺,結(jié)果戰(zhàn)勝世界圍棋冠軍。“更值得注意的是AlphaGoZero從零開始,通過(guò)36小時(shí)自我學(xué)習(xí),超越人類3000年的圍棋經(jīng)驗(yàn),以100比0擊敗了上一版本的AlphaGo。這證明第二條路也走得通。”張鈸說(shuō)。

  “這讓人歡欣鼓舞,也令人擔(dān)憂。”張鈸的“憂”,指的是基于深度學(xué)習(xí)的人工智能系統(tǒng)存在的根本性缺陷——不可解釋和不可理解,就事論事,缺乏推廣能力,遇到新的情況一籌莫展等。因此當(dāng)面對(duì)動(dòng)態(tài)變化的環(huán)境,信息不完全、存在干擾與虛假信息時(shí),人工智能系統(tǒng)性能就會(huì)顯著下降。

  “當(dāng)前的人工智能與人類智能本質(zhì)上是不同的。”張鈸說(shuō),與人類相比,人工智能系統(tǒng)抗干擾能力(魯棒性)差,推廣能力弱,甚至可能犯大錯(cuò)。“基于深度學(xué)習(xí)的模式識(shí)別系統(tǒng)盡管可以準(zhǔn)確地區(qū)分不同事物,但本質(zhì)上不認(rèn)識(shí)它們。與人類不一樣,它不會(huì)舉一反三,更不會(huì)‘知其所以然’。使用這樣的人工智能系統(tǒng)需要十分小心。”

  “現(xiàn)在大家對(duì)人工智能有無(wú)限期待。圍棋有規(guī)則,現(xiàn)實(shí)生活中沒有規(guī)則。人工智能產(chǎn)品完成單項(xiàng)任務(wù)很牛,但遇到復(fù)雜情況,實(shí)際沒那么厲害。”海爾公司CTO趙峰認(rèn)為。

  人工智能可怕嗎?遠(yuǎn)慮尚“遠(yuǎn)”,近憂在即

  人工智能會(huì)威脅人類嗎?馬斯克、霍金、扎克伯格……科技和產(chǎn)業(yè)界的大腕對(duì)此的爭(zhēng)論和互懟一直沒有停歇。

  參加香山科學(xué)會(huì)議的科學(xué)家認(rèn)為,人工智能威脅論擁躉者所指的“強(qiáng)人工智能”到來(lái)還比較遠(yuǎn),現(xiàn)在發(fā)展的多是擅長(zhǎng)完成單項(xiàng)任務(wù)的“弱人工智能”。“人工智能還在生長(zhǎng)發(fā)展過(guò)程中,是否造成威脅估計(jì)是下一代科學(xué)家面臨的問題,我們現(xiàn)在的任務(wù)是把它‘養(yǎng)大’。”不過(guò),中科院院士何積豐也坦承,現(xiàn)在人工智能也有“內(nèi)憂外患”,如無(wú)人機(jī)黑飛亂飛管理亂象,恐怖主義黑客攻擊等。

  “世界上沒有免費(fèi)的午餐,機(jī)器通過(guò)‘黑箱’學(xué)習(xí)(深度學(xué)習(xí))方法取得的智能,由于與人類認(rèn)知行為存在根本差異,因此也將帶來(lái)潛在的風(fēng)險(xiǎn)。”張鈸說(shuō),人工智能全面超越人類智能并出現(xiàn)自我意識(shí),是危險(xiǎn)的,不過(guò)這是遠(yuǎn)慮;但其不可解釋性會(huì)帶來(lái)“近憂”,如將深度學(xué)習(xí)應(yīng)用于軍事決策,萬(wàn)一系統(tǒng)出現(xiàn)原則性決策失誤怎么辦?

  人類準(zhǔn)備好了嗎?遠(yuǎn)遠(yuǎn)沒有,急需跟進(jìn)

  “人類現(xiàn)有的概念框架及知識(shí)儲(chǔ)備難以應(yīng)對(duì)人工智能帶來(lái)的影響,也使我們不得不面對(duì)‘制度性風(fēng)險(xiǎn)’。”李真真說(shuō),人工智能技術(shù)的社會(huì)應(yīng)用迅速改變了人類的生存環(huán)境,重塑人的行為,也不斷挑戰(zhàn)諸如隱私、責(zé)任等概念內(nèi)涵及其既有策略。

  李真真以“隱私”舉例說(shuō),傳統(tǒng)法律上,隱私是一種權(quán)利的概念,但現(xiàn)在它還可以是一種商品,即我們讓出一部分個(gè)人的隱私或信息以換取服務(wù)和產(chǎn)品,這就需要法律的及時(shí)跟進(jìn)。再有,匿名化技術(shù)的發(fā)展為隱私保護(hù)提供了新的工具,但如果對(duì)于匿名化數(shù)據(jù)的法律概念和認(rèn)定標(biāo)準(zhǔn)上沒有明確規(guī)定,很可能會(huì)導(dǎo)致數(shù)據(jù)的濫用。同時(shí),隱私保護(hù)與國(guó)家安全、商業(yè)利益如何平衡,也是問題。再比如“責(zé)任”,比較典型的就是自動(dòng)駕駛系統(tǒng)的責(zé)任認(rèn)定。“還有人工智能的預(yù)測(cè)或決策,如預(yù)測(cè)犯罪,這將使我們面對(duì)一個(gè)更為復(fù)雜的法律問題。”

  “法律具有滯后性,這就要求我們不斷地根據(jù)出現(xiàn)的新情況和新的社會(huì)難題,對(duì)人工智能帶來(lái)的影響進(jìn)行倫理評(píng)估,以保障相關(guān)法律和政策的及時(shí)跟進(jìn)。”李真真說(shuō)。

  人機(jī)可以和諧共處嗎?嵌入倫理法律框架是最大的科學(xué)挑戰(zhàn)

  人工智能是否會(huì)產(chǎn)生歧視?答案是肯定的,這可以體現(xiàn)在數(shù)據(jù)選擇和算法上。

  有科學(xué)家研究,通過(guò)使用機(jī)器學(xué)習(xí)算法幫助銀行提供接受還是拒絕房貸的建議,無(wú)論如何,在審查神經(jīng)網(wǎng)絡(luò)決策制定流程的結(jié)果時(shí),發(fā)現(xiàn)黑人申請(qǐng)的批準(zhǔn)率大大低于白人申請(qǐng)的批準(zhǔn)率。

  這就是人工智能工具存在的“黑箱”般的不透明性。

  “人機(jī)關(guān)系中,智能機(jī)器與人類的價(jià)值觀和規(guī)范體系必須一致。”李真真說(shuō),如何將人類的價(jià)值觀和規(guī)范嵌入人工智能系統(tǒng),賦予AI以人性的光輝,成為當(dāng)前所面臨最現(xiàn)實(shí)的挑戰(zhàn)。

  前有科幻小說(shuō)家阿西莫夫著名的機(jī)器人學(xué)三大定律,近年來(lái),國(guó)際人工智能界日益重視人工智能中的倫理與法律問題,并推動(dòng)相關(guān)技術(shù)標(biāo)準(zhǔn)及社會(huì)規(guī)范的研討和制定,如IEEE全球人工智能與倫理倡議、阿西洛馬人工智能23條倫理原則,我國(guó)的《新一代人工智能發(fā)展規(guī)劃》也專門提出人工智能倫理與法律的三步走規(guī)劃。“但是,將倫理與法律要求嵌入到AI系統(tǒng),仍是全世界前沿性的科學(xué)難題,這需要技術(shù)、倫理、法律等控制手段配合使用、高度融合和跨學(xué)科合作。”李真真說(shuō)。

  “智能機(jī)器不是代替人,而是要協(xié)助人做好工作。人和機(jī)器各有優(yōu)勢(shì),要互相了解才能實(shí)現(xiàn)人機(jī)協(xié)作,但人還是人機(jī)關(guān)系的主導(dǎo)者。依照這種思想,才可能將人工智能引向人機(jī)合作的發(fā)展道路。”張鈸說(shuō)。



關(guān)鍵詞: 人工智能

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉