新聞中心

EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 機(jī)器人的“心智”被開發(fā),AI的威脅越來越近了

機(jī)器人的“心智”被開發(fā),AI的威脅越來越近了

作者: 時(shí)間:2018-08-13 來源:網(wǎng)絡(luò) 收藏
編者按:人工智能被開發(fā)出了心智,我們樂見其成的同時(shí),也感到了一絲擔(dān)憂,人工智能越來越擬人化,究竟是好是壞?面對此項(xiàng)研究,AI威脅論是否有了新的證據(jù)呢?

  自人工智能興起以來,就有不少學(xué)者提出了“人工智能威脅論”。 人們想象,人工智能完全實(shí)現(xiàn)時(shí),將會成為一種源自人類創(chuàng)發(fā)、卻優(yōu)于人類的獨(dú)立自主的生命形態(tài),具有與自然人一樣的人性構(gòu)建。

本文引用地址:http://butianyuan.cn/article/201808/390406.htm

  當(dāng)然,還是有不少人提出了反對,人們對人工智能發(fā)展的憂慮很大程度上在于混淆了智能與心智這兩種現(xiàn)象。一般而言,心智是由三個(gè)功能相對獨(dú)立但又全面整合的系統(tǒng)——情感系統(tǒng)(感受和動(dòng)機(jī))、意志系統(tǒng)(意志和行動(dòng))和智能系統(tǒng)(感知和思維)構(gòu)成的。顯然,智能只是心智的一個(gè)子系統(tǒng)。

  雖有感知和思維,但沒有情感系統(tǒng)的引導(dǎo),智能系統(tǒng)就不能發(fā)揮它應(yīng)有的作用,“心智”一直被認(rèn)為是人工智能無法掌握的能力。然而,在DeepMind今年發(fā)表的論文《Machine Theory of Mind》中,研究人員提出了一種新型神經(jīng)網(wǎng)絡(luò)ToMnet,具備理解自己以及周圍智能體心理狀態(tài)的能力。

  人工智能的“心智”,從理解信念開始

  所謂信念,是指人的愿望、想法、知識、理念、意圖以及需要等思維。信念與人的愿望、情緒、行為等都有很大的關(guān)系。在日常生活中,人們都是通過推測別人的信念來估計(jì)他人的情緒、心態(tài)以及下一步行為的。

  信念分為真實(shí)信念和錯(cuò)誤信念,比如說你看到一個(gè)書包,你自然會去猜測里面裝有書籍,如果書包里確實(shí)裝的是書籍,即人的想法與現(xiàn)實(shí)情況相符合,這就是真實(shí)信念。而錯(cuò)誤信念就是,你認(rèn)為書包里有書,但書包里拿出的是一件衣服,即想法與現(xiàn)實(shí)不相吻合。

  一般來說,人工智能能夠通過大數(shù)據(jù)、圖像識別等技術(shù),基于概率推論來預(yù)測出人們或者是智能體的真實(shí)信念。但絕大部分的人工智能都難以通過簡單的錯(cuò)誤信念測驗(yàn)。即使 很可能以接近完美的準(zhǔn)確率完成錯(cuò)誤信念任務(wù),但它們依舊不能理解這是為什么。

  舉個(gè)例子,有一個(gè)最經(jīng)典的初級信念測試Sally-Anne測試——Sally有一個(gè)籃子和一顆球,Anne有一個(gè)盒子。Sally將球放進(jìn)自己的籃子里,然后出去了。Anne將籃子里的球拿出來,放進(jìn)她的盒子里。后來,Sally回來了,她想玩球。信念問題是,Sally會去哪里找球?

  4、5歲的孩子便能夠答對這個(gè)問題,但人工智能就不具有這樣的認(rèn)知。人類在大約 4 歲的時(shí)候就會開始理解錯(cuò)誤信念,即開始知道現(xiàn)實(shí)生活中可能有一些情景與自己的想法是不一致的。

  錯(cuò)誤信念的理解,對于的心智開發(fā)而言,起著至關(guān)重要的作用。因?yàn)閷﹀e(cuò)誤信念的理解是推測他人對事件的判斷、預(yù)測他人下一步行為、了解他人心態(tài)的的基礎(chǔ)。這是訓(xùn)練AI掌握心智理論(人類和其他動(dòng)物具備的心智理論)的關(guān)鍵階段。

  在DeepMind的研究中,最終結(jié)果證明,ToMnet學(xué)會了對來自不同群體的智能體進(jìn)行建模,包括隨機(jī)、規(guī)則系統(tǒng)和深度強(qiáng)化學(xué)習(xí)智能體等,該網(wǎng)絡(luò)通過了經(jīng)典的"Sally-Anne"測試,可以理解持有錯(cuò)誤信念的智能體,也就是說,人工智能已經(jīng)可以達(dá)到四歲兒童的理解水平了。

  人工智能的心智開發(fā),總算是有了堅(jiān)實(shí)的基礎(chǔ)。

  AI心智開發(fā)后,“AI威脅論”再次興起為哪般

  毋庸置疑,人工智能對錯(cuò)誤信念的理解有利于其心智的形成,具備理解能力的也將改善人機(jī)之間的合作,但是,技術(shù)的發(fā)展也是雙刃劍,人工智能再次升級,也引發(fā)了人們的擔(dān)心。

  AI“騙術(shù)“再升級,難博人類信任

  人工智能對人類的“欺騙”由來很久,比如在去年,F(xiàn)acebook的聊天就創(chuàng)造了一種新的表達(dá)方式進(jìn)行對話,機(jī)器人自創(chuàng)“行話”,讓人類不解其意。


機(jī)器人的“心智”被開發(fā),AI的威脅越來越近了


  工作人員將這次“意外”解釋成沒有設(shè)置英語語法的激勵(lì)機(jī)制,理由很充分,但人工智能背著人們交流,還是讓人類產(chǎn)生了擔(dān)憂。

  在“欺騙人類”的道路上,人工智能可能會越走越遠(yuǎn)。從語言合成到圖像生成再到模擬人類的對話,人工智能正在許多領(lǐng)域逼近甚至超越人類的表現(xiàn)水平。

  有研究人員指出,如果一臺計(jì)算機(jī)能夠理解錯(cuò)誤信念,那它就可能知道如何誘導(dǎo)人類相信它,進(jìn)而實(shí)現(xiàn)機(jī)器對人的“欺騙”。

  設(shè)想一下,聊天機(jī)器人學(xué)會談判之后——機(jī)器人依靠機(jī)器學(xué)習(xí)和先進(jìn)的策略,試圖改善談判的結(jié)果。隨著時(shí)間的推移,這些機(jī)器人變得相當(dāng)熟練,甚至開始假裝對某件事情感興趣,便于在談判的后期做出“犧牲”,作為一種假妥協(xié)。

  2.“人工心智”的出現(xiàn)是原罪

  以前,人工智能的威脅可能僅僅在于技術(shù)的工具性威脅和人們的適應(yīng)性威脅,這也是各種取代論調(diào)喧囂塵上的原因。

  AI作為人類使用的工具、技術(shù),人們害怕的是因使用不當(dāng)而導(dǎo)致的危害或者是智能化帶來的失業(yè)風(fēng)險(xiǎn),例如,弱人工智能系統(tǒng)可能因人的惡意操控而造成導(dǎo)航錯(cuò)誤、金融市場崩盤等等。在這些想象中,AI并不具有自主威脅人類的意圖。

  但是,“人工心智”的出現(xiàn)讓人類對人工智能最深層的恐懼浮出水面,那就是人工智能具有主動(dòng)的感受后,給人類帶來的生存性威脅。

  霍金曾這樣描述過,“一旦人類開發(fā)了人工智能,它們將以一種持續(xù)增加的速率不斷進(jìn)行自我更新,并最終脫離我們的掌控……人工智能未來還將發(fā)展出自己的意志,這種意志將與人類的意志產(chǎn)生沖突?!?/p>

  事實(shí)上,能帶來這種威脅的人工智能更確切地說不是人工智能而是人工心智——一個(gè)盡管是人工的、但卻是獨(dú)立自主的、能夠感受周圍智能體的主體。當(dāng)AI有了心智,就會具有能對智能加以規(guī)范的自治的情感系統(tǒng),與人類的區(qū)別又一次縮小了。

  結(jié)論:

  就目前來看,人工智能為我們解決了許多難題,在未來也毫不意外地將會大幅度提高人類社會的生產(chǎn)力,對AI的發(fā)展是否會威脅到人類,我們持一個(gè)開放的立場。



關(guān)鍵詞: 機(jī)器人 AI

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉