關(guān) 閉

新聞中心

EEPW首頁 > 工控自動(dòng)化 > 業(yè)界動(dòng)態(tài) > 為什么機(jī)器人要比普通人類工作起來更加可靠

為什么機(jī)器人要比普通人類工作起來更加可靠

作者: 時(shí)間:2014-05-03 來源:騰訊數(shù)碼 收藏
編者按:機(jī)器人真的可靠嗎?樂觀主義者和悲觀主義者會(huì)有不同的看法,看看這篇文章中闡述的內(nèi)容,肯定能夠打消不少人對(duì)機(jī)器人的懷疑。

  現(xiàn)在的已經(jīng)擁有了智能,因此有時(shí)它們自己也會(huì)產(chǎn)生特定的“焦慮”和不確定性,即使是每天它們都在完成同一種任務(wù),這樣的可能性也是存在的。因此,為了減少出現(xiàn)的“焦慮”,我們應(yīng)該更加著重研究如何能夠讓它們真正的在第一時(shí)間代替人類做出正確的決定。只有這樣,在某種程度上來說,這樣的才比人類更加可靠。

本文引用地址:http://butianyuan.cn/article/246277.htm
為什么機(jī)器人要比普通人類工作起來更加可靠
  不管你是否認(rèn)同,已經(jīng)存在于相當(dāng)數(shù)量的機(jī)器人中。這里的“”通常指的是機(jī)器人做出自動(dòng)判斷的能力,在什么情況下應(yīng)該做什么事情。到目前為止,我們所能夠接觸到的機(jī)器人,比如機(jī)器人吸塵器、自動(dòng)停車系統(tǒng)、飛機(jī)駕駛儀等都非常簡(jiǎn)單,幾乎并沒有過多的涉及自治系統(tǒng)概念。這些系統(tǒng)雖然能夠適應(yīng)它們所處的環(huán)境,并且自動(dòng)對(duì)環(huán)境變化進(jìn)行應(yīng)對(duì),但是都是實(shí)現(xiàn)已經(jīng)進(jìn)行了編程錄入,通過環(huán)境的變化來調(diào)取相應(yīng)的命令。

  經(jīng)常喜歡看科幻故事的朋友都知道,其實(shí)機(jī)器人還可以更進(jìn)一步。我們關(guān)心的是,但機(jī)器人取代了普通的人類飛行員之后,在遇到特殊情況時(shí)會(huì)自動(dòng)根據(jù)條件變化做出合適的對(duì)策。在目前的飛行系統(tǒng)中,自動(dòng)駕駛系統(tǒng)可以使飛機(jī)在固定的航線中飛行,但是依然需要人類飛行員來決定該走哪個(gè)方向、什么時(shí)候轉(zhuǎn)彎以及如何應(yīng)對(duì)意想不到的意外情況。同樣的道理,巡航控制、車道控制等系統(tǒng)雖然可以讓汽車根據(jù)當(dāng)前路線自動(dòng)行駛,但是一切重大決策的制定還是要依靠人類。但是一旦自治系統(tǒng)變得更加先進(jìn),軟件就會(huì)發(fā)揮更大的作用。我們將不再需要真正的人類來決定何時(shí)改變飛機(jī)的飛行路線或當(dāng)高速公路關(guān)閉后選擇哪條小路繼續(xù)行駛。

  相信許多人看到這樣的想法,一定會(huì)有這樣的擔(dān)心。即使是一臺(tái)機(jī)器可以自動(dòng)做出決定,那么我們?cè)趺幢WC它的決定是安全的呢?相信看過《終結(jié)者》系列電影的朋友都知道,機(jī)器人其實(shí)也并非完全可靠,而在現(xiàn)實(shí)生活中,選擇乘坐飛機(jī)本身就是具有一定危險(xiǎn)概率的時(shí)間,更不用說這架飛機(jī)還是完全依靠“沒血沒肉”的機(jī)器人來駕駛。

  通常情況下我們大致要面臨兩種選擇。完全相信它們或拒絕它們。不過現(xiàn)在已經(jīng)出現(xiàn)了第三種選項(xiàng)。當(dāng)我們?cè)谂c另外一個(gè)人相處時(shí),雖然我們無法確定對(duì)方做出什么樣的決定,但是我們可以基于對(duì)對(duì)方的了解而做出我們自己的判斷。而判斷的依據(jù)就是對(duì)方之前是否欺騙過我們或有過類似的經(jīng)歷。但是我們并不能完全根據(jù)這種經(jīng)驗(yàn)判斷來假設(shè)對(duì)方一定是在欺騙自己。而機(jī)器人的自治系統(tǒng)則并不一樣。它的本質(zhì)上是由軟件來控制,因此如果我們能夠?qū)⑦@些軟件變得“完美”,將所有人類的高級(jí)思維融入其中,而軟件和系統(tǒng)就會(huì)可以非常詳細(xì)的分析行動(dòng)計(jì)劃。在這一點(diǎn)上,人類的大腦可并非輕易能夠辦到。

  目前,一種對(duì)計(jì)算機(jī)科學(xué)與軟件的深入分析研究已經(jīng)變得越來越流行,特別是如何證明軟件的邏輯分析能力如何正確的匹配實(shí)際的需求。這種方法被稱為形式驗(yàn)證(formal verification),在分析和評(píng)估足以影響人類安全的軟件中非常有用,比如火車站、生命支持系統(tǒng)或交通系統(tǒng)等。一旦這些軟件能夠通過自治系統(tǒng)做出更高級(jí)的決定,我們就可以對(duì)某些項(xiàng)目的詳細(xì)工作進(jìn)行更加準(zhǔn)確的驗(yàn)證。

  而目前科學(xué)界的研究最主要的方向就是如何驗(yàn)證這種自治系統(tǒng)所做出的行為判斷最為科學(xué),來證明通過軟件控制的機(jī)器人系統(tǒng)永遠(yuǎn)不會(huì)做出錯(cuò)誤或糟糕的決定。

  這個(gè)決策的過程也是讓機(jī)器人被絕對(duì)信賴的核心之處,如何更舒心、更省力的讓機(jī)器來做出最佳決定。不過這樣的工作系統(tǒng)通常都是非常復(fù)雜和充滿了不確定性的,所以即使是事故已經(jīng)發(fā)生,我們也要保證軟件系統(tǒng)之前已經(jīng)至少嘗試了試圖避免事故發(fā)生。這似乎是一種不可避免的缺點(diǎn),但是至少可以讓那些擔(dān)憂科幻小說中出現(xiàn)機(jī)器人欺騙人類情況的朋友稍微放心一些。

  雖然我們不能肯定的說一個(gè)機(jī)器人永遠(yuǎn)都不會(huì)意外的對(duì)人類造成傷害,但是通過系統(tǒng)和實(shí)驗(yàn)證明至少這些傷害都不是機(jī)器人故意的行為。通過觀察機(jī)器人內(nèi)部的編程代碼,我們不僅要評(píng)估它們要去做什么,更要評(píng)估它們?yōu)楹我@樣做。盡管目前人類對(duì)于機(jī)器人和自治系統(tǒng)依然無法完全相信,但是如果了解了系統(tǒng)并不會(huì)故意對(duì)人類造成欺騙,也許就會(huì)讓這些人對(duì)機(jī)器人的好感度能夠提升一點(diǎn)。

  目前最主要的問題就是我們要證明的是什么,而不是如何來證明。我們永遠(yuǎn)無法試圖證明一個(gè)機(jī)器人會(huì)故意選擇傷害人類,但是對(duì)于諸如醫(yī)療機(jī)器人或警察機(jī)器人這種特殊行業(yè)的例子來說,也有可能是它們?cè)谠噲D幫助人類(比如進(jìn)行胸部施壓幫助呼吸)的過程中無意中對(duì)人類造成傷害。還有機(jī)器人警察在保護(hù)普通公民的時(shí)候也會(huì)對(duì)犯罪份子開槍,這雖然傷害了某個(gè)人類的個(gè)體,但是其實(shí)也是為了保護(hù)大多數(shù)人的安全。

  通過上面的闡述,我們已經(jīng)從技術(shù)、哲理和倫理的角度為未來機(jī)器人更加普及的應(yīng)用進(jìn)行了一些證明。因此如果未來機(jī)器人和自治系統(tǒng)真的試圖在某些領(lǐng)域完全代替人類,我們也要相信它們本身的決策過程都是以獲得最佳結(jié)果為依據(jù)的。



關(guān)鍵詞: 機(jī)器人 自治系統(tǒng)

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉