新聞中心

EEPW首頁 > 業(yè)界動(dòng)態(tài) > 算法正在創(chuàng)造一個(gè)沒人能理解的代碼世界

算法正在創(chuàng)造一個(gè)沒人能理解的代碼世界

作者: 時(shí)間:2018-09-04 來源:品途商業(yè)評論 收藏

  這幾年,以今日頭條為代表的“算法分發(fā)”模式席卷全球互聯(lián)網(wǎng)行業(yè)。而各界對算法的非議也漸漸浮現(xiàn),有的認(rèn)為它“計(jì)算不準(zhǔn)”,有的認(rèn)為它“惡意推薦”,甚至還出現(xiàn)了“算法技術(shù)應(yīng)退出時(shí)代舞臺(tái)”的論調(diào)。

本文引用地址:http://www.butianyuan.cn/article/201809/391505.htm

  事實(shí)上,對科技公司來說,算法是一把雙刃劍,一方面在驅(qū)動(dòng)其業(yè)績增長方面立下了汗馬功勞,另一方面卻“后患無窮”。以今日頭條為例,該公司幾乎完全憑借算法,快速超越了傳統(tǒng)門戶的人工編輯模式,優(yōu)勢極為明顯;但在判斷內(nèi)容質(zhì)量,發(fā)現(xiàn)傳播風(fēng)險(xiǎn)方面,算法卻還處于非常初級的階段,不太能指望得上。

  總的來說,隨著算法的發(fā)展,這個(gè)代碼疊加的技術(shù)正逐漸創(chuàng)造一個(gè)沒人能理解的世界......

  2018年3月18日,悲劇發(fā)生了,這也是科技人士所擔(dān)心的。那天晚上,一輛Uber無人車在自動(dòng)駕駛的狀態(tài)下行駛,突然檢測到前方有障礙物出現(xiàn)。一系列雷達(dá)和激光雷達(dá)傳感器探測到的數(shù)據(jù)讓機(jī)載算法開始計(jì)算,假設(shè)障礙物保持不動(dòng),車速穩(wěn)定在43英里/小時(shí),那現(xiàn)在二者的距離只需6秒。但是道路中的物體很少保持靜止,于是更多的算法開始搜索可識(shí)別生物實(shí)體的數(shù)據(jù)庫,以尋找一個(gè)模型來推出一個(gè)完美的解決方案。

  起初,計(jì)算機(jī)空白了幾秒,隨后決定與障礙物“碰面”希望它能自行離開。然而,到最后一秒,該車才清楚的知道,這是一位推著自行車的女士。在這種情況下,汽車想要繞過去,但因?yàn)榻棺孕胁扇∫?guī)避行動(dòng),計(jì)算機(jī)只能將控制權(quán)交還人類。遺憾的是,安全員正在開小差,悲劇就這樣發(fā)生了:49歲的Elaine Herzberg在車禍中去世。這件事也給科技界的留下了兩個(gè)值得反思的問題:這種算法造成的悲劇是不可避免的嗎?我們應(yīng)該如何應(yīng)對這些事件?

  “在某些方面,我們失去了控制權(quán)。當(dāng)程序進(jìn)入代碼,代碼進(jìn)入算法,然后算法開始創(chuàng)建新算法時(shí),它會(huì)越來越不受人類控制,軟件也就進(jìn)入了一個(gè)沒人能理解的代碼世界?!笔遣皇锹犉饋砗荏@悚,事實(shí)也會(huì)如此。這句話出自Ellen Ullman之口,她是自20世紀(jì)70年代以來的一位杰出的專業(yè)程序員,也是為數(shù)不多的幾位出版過關(guān)于編程的書的人。

  “人們可能會(huì)說,‘那Facebook呢?他們創(chuàng)造并使用算法,還會(huì)進(jìn)行改進(jìn)?!@不是Facebook的運(yùn)作方式。研究員設(shè)置算法,它們學(xué)習(xí),改變和運(yùn)行自己。Facebook定期介入,但他們真的無法控制這些算法,對特殊的算法而言,它們不僅僅是自主運(yùn)行,還會(huì)調(diào)用數(shù)據(jù)庫,進(jìn)入深層操作系統(tǒng),等等?!?/p>

  什么是算法?

  如今,很少有哪種技術(shù)會(huì)比算法更受歡迎,但算法究竟是什么呢?從根本上說,算法是一個(gè)小而簡單的事情,即用于自動(dòng)處理數(shù)據(jù)的規(guī)則。如果a發(fā)生了,那么執(zhí)行b;如果沒發(fā)生,那就執(zhí)行c。這是經(jīng)典計(jì)算的“if / then / else”邏輯。核心上,計(jì)算機(jī)程序是這類算法的捆綁,為它們投遞處理數(shù)據(jù)。

  不過,近年來算法出現(xiàn)了一種很模棱兩可的定義,指任何大型、復(fù)雜的決策軟件系統(tǒng),根據(jù)一組給定的標(biāo)準(zhǔn)(或“規(guī)則”),獲取數(shù)據(jù)輸入并快速評估。這徹底改變了醫(yī)學(xué)、科學(xué)、交通、以及通信領(lǐng)域,讓人們的生活在各個(gè)方面變得更好。

  直到2016年,我們對算法有了新的思考。像Facebook和谷歌這樣的公司開始以客觀的承諾為算法辯護(hù),認(rèn)為它可以通過數(shù)學(xué)分離和缺乏模糊情感來權(quán)衡一系列條件?;诖耍@種算法決策擴(kuò)展到了發(fā)放貸款、保釋、福利、工作面試以及其他任何需要選擇的事情上。

  現(xiàn)在的我們不再能接受這種對算法的“推銷”。凱西·奧尼爾(Cathy O'Neil)在其著作《數(shù)學(xué)破壞武器》(Weapons of Math Destruction)中表示,對于人類的偏見,算法不僅會(huì)鞏固還會(huì)放大,而不是消除。對此,她呼吁對任何能直接影響公眾的系統(tǒng)進(jìn)行“算法審計(jì)”(algorithmic audits),這是一個(gè)明智的想法,不過對科技行業(yè)不是一件好事,因?yàn)樗惴ㄊ撬麄兊闹?,他們最不愿做的就是透明化?/p>

  好消息是這場戰(zhàn)斗正在進(jìn)行中,壞消息是人們的注意力都集中在人工智能的遙遠(yuǎn)承諾和威脅上,幾乎沒人注意到我們進(jìn)入了算法革命的新階段。由奧尼爾和其他人所創(chuàng)造的算法是不透明但可預(yù)測的,我們將這些算法稱為“dumb”,它們能根據(jù)人類定義的參數(shù)來完成工作。

  而結(jié)果的質(zhì)量取決于編程的思想和技巧。其終極目的便是人工智能或AGI。一個(gè)智能機(jī)器將能夠基于直覺(我們可能認(rèn)為是經(jīng)驗(yàn)和知識(shí)的積累)質(zhì)疑自己的計(jì)算質(zhì)量。谷歌DeepMind創(chuàng)建的AlphaGo就是一個(gè)很好的例子。事實(shí)上,在某些特定任務(wù)中,計(jì)算機(jī)已經(jīng)遠(yuǎn)遠(yuǎn)優(yōu)于人類,但要與人類的能力相比媲美,還需要時(shí)間。

  現(xiàn)實(shí)生活中的危險(xiǎn)

  回到之前Uber無人車發(fā)生事故的原因。目前正在測試的自動(dòng)駕駛汽車可能包括1億行代碼,并且鑒于沒有程序員可以預(yù)測真實(shí)世界道路上的所有可能情況,他們必須學(xué)習(xí)并接收不斷更新。我們?nèi)绾伪苊庠诖舜a環(huán)境中發(fā)生沖突,尤其是算法可能還需要保護(hù)自己免受黑客攻擊的時(shí)候?

  二十年前,George Dyson在他的經(jīng)典著作《電腦生命天演論》(Darwin Among the Machines)中預(yù)測了今天發(fā)生的大部分事情。他表示問題在于我們正在構(gòu)建超出控制范圍的系統(tǒng)。人們總是相信,如果一個(gè)系統(tǒng)是確定的(根據(jù)固定規(guī)則行動(dòng),這是一個(gè)算法的定義),它就是可預(yù)測的,并且預(yù)測也是可控的。實(shí)際上,這兩個(gè)假設(shè)都是錯(cuò)誤的。

  與以前的電子機(jī)械系統(tǒng)不同,新算法無法進(jìn)行詳盡的測試。除非我們擁有超級智能機(jī)器為我們做這件事,否則我們就是在鋌而走險(xiǎn)。因此,從目前的情況看,重點(diǎn)是機(jī)器學(xué)習(xí)。我們都知道,今年早些時(shí)候,Uber自動(dòng)駕駛汽車出現(xiàn)了致死事故,因?yàn)樗惴ㄔ趯π腥朔诸悤r(shí)猶豫不決。這是由于編程不佳,算法培訓(xùn)不足還是拒絕接受技術(shù)的局限性造成的?真正的問題是我們可能永遠(yuǎn)不會(huì)知道答案。

  新南威爾士大學(xué)的人工智能教授Toby Walsh表示,“我們最終會(huì)完全放棄編寫算法,因?yàn)槲磥頇C(jī)器能比以我們做得更好。從這個(gè)意義上說,軟件工程可能是一個(gè)垂死的職業(yè)。它將被機(jī)器接管?!贝送?,他還指出,這會(huì)讓人們學(xué)習(xí)編程變得更加重要,因?yàn)殡S著我們越來越疏離編程,就會(huì)越覺得它的影響超出了我們的能力。另外,倫理在科技領(lǐng)域來說,是最重要的。畢竟,哪里有選擇,哪里就是道德所在的地方。

  相反的觀點(diǎn)是,一旦程序出現(xiàn)問題,整個(gè)程序群體就可以被重寫或更新,同一種情況就不會(huì)再發(fā)生了,而不像人類,重復(fù)錯(cuò)誤的傾向可能更會(huì)誤導(dǎo)機(jī)器。盡管如此,雖然從長遠(yuǎn)來看自動(dòng)化應(yīng)該更安全,但我們現(xiàn)有的侵權(quán)法體系需要重新定制,這需要有意或過失的證明。

  其實(shí),上文描述的大多數(shù)問題,也都在尋找解決方案。從長遠(yuǎn)來看,會(huì)有更多的人猜測,考慮到我們越來越依賴的算法系統(tǒng)的規(guī)模,復(fù)雜性和相互依賴性,當(dāng)前的編程方法已不再適用。對此,部分航空航天工業(yè)采用了一種較新的被稱為“基于模型的編程”的方法,其中機(jī)器完成大部分編碼工作并且能夠隨時(shí)進(jìn)行測試。

  然而,基于模型的編程可能不是萬能的靈丹妙藥。它不僅使人類進(jìn)一步遠(yuǎn)離這一過程,而且人類也無法從代碼本身推斷出極端行為,即使是在使用大型復(fù)雜系統(tǒng)構(gòu)建的情況下也是如此。當(dāng)我們等待技術(shù)上的答案來解決算法問題時(shí),或許采用一些預(yù)防措施才是最重要的。



關(guān)鍵詞:

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉