新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 算法當(dāng)?shù)?!為什么人類和人工智能越?lái)越像?

算法當(dāng)?shù)溃槭裁慈祟惡腿斯ぶ悄茉絹?lái)越像?

作者: 時(shí)間:2019-01-24 來(lái)源:網(wǎng)易智能 收藏
編者按:算法告訴我們?cè)撊绾嗡伎?,而這正在改變我們。隨著計(jì)算機(jī)學(xué)會(huì)如何模仿,我們是否正開始變得越來(lái)越像它們呢? 

  算法告訴我們?cè)撊绾嗡伎?,而這正在改變我們。隨著計(jì)算機(jī)學(xué)會(huì)如何模仿,我們是否正開始變得越來(lái)越像它們呢?

本文引用地址:http://butianyuan.cn/article/201901/397078.htm

  硅谷正越來(lái)越多地預(yù)測(cè)人們會(huì)如何回復(fù)電子郵件,會(huì)對(duì)某人的Instagram照片做出什么樣的反應(yīng),越來(lái)越多地決定人們有資格享受哪些政府服務(wù),不久以后,即將到來(lái)的谷歌語(yǔ)音助理Google Assistant將能夠?yàn)槿藗儗?shí)時(shí)打電話預(yù)約理發(fā)師。

  從醫(yī)院到學(xué)校,再到法庭,我們幾乎將算法帶到了所有的地方。我們被各種自動(dòng)化系統(tǒng)所環(huán)繞。幾行代碼即可告訴我們應(yīng)該看什么媒體內(nèi)容,與誰(shuí)約會(huì),甚至告訴司法系統(tǒng)應(yīng)該把誰(shuí)送進(jìn)監(jiān)獄。

  我們把如此之多的決策權(quán)和控制權(quán)交給這些程序,是對(duì)的嗎?

  我們之所以癡迷于數(shù)學(xué)程序,是因?yàn)樗鼈兡軐?duì)一系列錯(cuò)綜復(fù)雜的問題給出快速而準(zhǔn)確的答案。機(jī)器學(xué)習(xí)系統(tǒng)已經(jīng)被應(yīng)用于我們的現(xiàn)代社會(huì)的幾乎每一個(gè)領(lǐng)域。

  算法是如何影響我們的日常生活的?在一個(gè)不斷變化的世界里,機(jī)器正在快速而出色地學(xué)習(xí)人類的行為方式,我們喜歡些什么,討厭些什么,以及什么是對(duì)我們最好的。我們現(xiàn)在生活在由預(yù)測(cè)性技術(shù)主宰的空間里。

  通過(guò)分析整理海量的數(shù)據(jù),給我們提供即時(shí)且相關(guān)的結(jié)果,算法極大地改變了我們的生活。多年來(lái),我們讓公司們收集了大量的數(shù)據(jù),讓公司變得能夠給我們提供各種建議,能夠決定什么是對(duì)我們最有利的。

  谷歌母公司Alphabet或亞馬遜等公司一直在為各自的算法灌輸從我們身上收集到的數(shù)據(jù),并指導(dǎo)利用收集到的信息來(lái)適應(yīng)我們的需求,變得更像我們。然而,隨著我們習(xí)慣了這些便捷的功能以后,我們的說(shuō)話和行為方式是否會(huì)變得更像一臺(tái)計(jì)算機(jī)呢?

  “算法本身并不公平,因?yàn)闃?gòu)建模型的人定義了成功?!薄獢?shù)據(jù)科學(xué)家凱茜·奧尼爾(Cathy O’Neil)

  按照當(dāng)前這樣的技術(shù)發(fā)展速度,我們不可能不去想象在不久的將來(lái),我們的行為會(huì)變得由算法引導(dǎo)或支配。事實(shí)上,這已經(jīng)在發(fā)生了。

  去年10月,谷歌為旗下郵箱服務(wù)Gmail推出了名為“Smart Reply”的智能回復(fù)功能,意在幫助你編寫回信或者快速回復(fù)。此后,該助理功能在互聯(lián)網(wǎng)上掀起了一場(chǎng)風(fēng)暴,很多人都批評(píng)它,稱其量身定制的建議具有侵害性,讓人看起來(lái)像機(jī)器,甚至有人認(rèn)為,它的回復(fù)最終可能會(huì)影響我們的交流方式,甚至可能改變電子郵件的規(guī)范。

  算法的主要問題在于,隨著它們變得如此巨大而復(fù)雜,它們會(huì)開始給我們當(dāng)前的社會(huì)帶來(lái)負(fù)面影響,會(huì)危及民主。隨著機(jī)器學(xué)習(xí)系統(tǒng)在社會(huì)的許多領(lǐng)域變得越來(lái)越普遍,算法會(huì)統(tǒng)治世界,接管我們的思想嗎?

  現(xiàn)在,讓我們來(lái)看看Facebook的做法。早在2015年,他們的新版News Feed信息流的設(shè)計(jì)初衷就是篩選用戶的訂閱內(nèi)容,使其變成個(gè)性化的報(bào)紙,讓用戶能夠看到與他們之前曾點(diǎn)贊、分享和評(píng)論的內(nèi)容相關(guān)的東西。

  “個(gè)性化”算法的問題在于,它們會(huì)將用戶放入“過(guò)濾氣泡”或者“回聲室”。在現(xiàn)實(shí)生活中,大多數(shù)人不太可能接受他們覺得困惑、討厭、不正確或可恨的觀點(diǎn)。就Facebook的算法而言,該公司給予用戶他們想要看到的東西,因此,每個(gè)用戶的信息流都變成一個(gè)獨(dú)特的世界,它們本身就是一個(gè)獨(dú)特的現(xiàn)實(shí)。

  過(guò)濾氣泡使得公開論證變得越來(lái)越困難,因?yàn)閺南到y(tǒng)的視角來(lái)看,信息和虛假信息看起來(lái)完全一樣。正如羅杰?麥克納米(Roger McNamee)最近在《時(shí)代》(Time)雜志上所寫的那樣,“在Facebook上,事實(shí)不是絕對(duì)的;它們是一種選擇,最初留給用戶和他們的朋友決定的一種選擇,但隨后被算法放大,以便促進(jìn)傳播和用戶的互動(dòng)。”

  過(guò)濾氣泡制造了一種錯(cuò)覺:每個(gè)人都相信我們?cè)谧鲋瑯拥氖虑?,或者有同樣的?xí)慣。我們已經(jīng)知道,在Facebook上,算法因?yàn)榧觿×藘蓸O化而讓這一問題進(jìn)一步惡化,最終損害了民主。有證據(jù)表明,算法可能影響了英國(guó)公投或2016年美國(guó)總統(tǒng)大選的結(jié)果。

  “Facebook的算法推崇極端信息,而非中性信息,這會(huì)讓虛假信息凌駕于真實(shí)信息之上,讓陰謀論凌駕于事實(shí)之上?!薄韫韧顿Y人羅杰·麥克納米(Roger McNamee)

  在無(wú)時(shí)無(wú)刻都充斥著大量信息的當(dāng)今世界,篩選信息對(duì)一些人來(lái)說(shuō)是一個(gè)巨大的挑戰(zhàn)。如果使用得當(dāng),可能會(huì)增強(qiáng)人們的在線體驗(yàn),或幫助人們迅速處理不斷增長(zhǎng)的內(nèi)容資訊負(fù)荷。然而,要能夠正當(dāng)運(yùn)作,算法需要關(guān)于真實(shí)世界中發(fā)生的事情的準(zhǔn)確數(shù)據(jù)。

  公司和政府需要確保算法的數(shù)據(jù)不存在偏見,且是準(zhǔn)確的。由于沒有什么是完美無(wú)瑕的,存在自然偏差的數(shù)據(jù)估計(jì)已經(jīng)存在于許多的算法中,這不僅給我們的網(wǎng)絡(luò)世界帶來(lái)了危險(xiǎn),也給現(xiàn)實(shí)世界帶來(lái)了危險(xiǎn)。

  倡導(dǎo)實(shí)施更強(qiáng)有力的監(jiān)管框架是必要的,這樣我們就不會(huì)陷入技術(shù)上的蠻荒。

  我們也應(yīng)該非常謹(jǐn)慎于我們賦予算法的能力。人們正變得越來(lái)越擔(dān)心算法帶來(lái)的透明度問題,算法做出的決策和流程背后的倫理意味,以及影響人們工作生活的社會(huì)后果。例如,在法庭上使用可能會(huì)增加偏見,造成對(duì)少數(shù)族裔的歧視,因?yàn)樗鼤?huì)考慮到“風(fēng)險(xiǎn)”因素,比如人們所在的社區(qū)以及與犯罪的關(guān)聯(lián)性。這些算法可能會(huì)犯下災(zāi)難性的系統(tǒng)性錯(cuò)誤,把現(xiàn)實(shí)中無(wú)辜的人類送進(jìn)監(jiān)獄。

  “我們有失去人性的危險(xiǎn)嗎?”

  安全專家布魯斯·施奈爾(Bruce Schneier)在他的書《點(diǎn)擊這里殺死所有人》(Click Here to Kill Everybody)中寫道,“如果我們讓計(jì)算機(jī)為我們思考,而底層的輸入數(shù)據(jù)是糟糕的,那么它們會(huì)進(jìn)行糟糕的思考,而我們可能永遠(yuǎn)都不會(huì)察覺?!?/p>

  英國(guó)倫敦大學(xué)學(xué)院的數(shù)學(xué)家漢娜·弗萊(Hannah Fry)帶領(lǐng)我們進(jìn)入了一個(gè)計(jì)算機(jī)可以自由操作的世界。在她的新著作《世界你好:在算法的時(shí)代里做個(gè)人類》(Hello World: Being Human In the Age of Algorithms)中,她認(rèn)為,作為公民,我們應(yīng)該更多地關(guān)注鍵盤后面的人,即那些編寫算法的人。

  “我們不必創(chuàng)造一個(gè)由機(jī)器來(lái)告訴我們?cè)撟鍪裁椿蛘咴撊绾嗡伎嫉氖澜?,盡管我們最終很可能會(huì)進(jìn)入這樣一個(gè)世界?!彼f(shuō)道。在整本書中,她多次問道:“我們有失去人性的危險(xiǎn)嗎?”

  現(xiàn)在,我們還沒有到人類被排除在外的階段。我們?cè)谶@個(gè)世界上的角色還沒有被邊緣化,在很長(zhǎng)一段時(shí)間內(nèi)都不會(huì)。人類和機(jī)器可以結(jié)合各自的優(yōu)勢(shì)和劣勢(shì)一起運(yùn)作。機(jī)器有缺陷,會(huì)犯和我們一樣的錯(cuò)誤。我們應(yīng)該注意我們交出了多少的信息,放棄了多少的能力,畢竟算法現(xiàn)在是人類固有的一部分,它們不會(huì)在短時(shí)間內(nèi)消失。



關(guān)鍵詞: 人工智能

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉