人工智能發(fā)展的不可回避的十大痛點(diǎn)
從1956年的達(dá)特茅斯會(huì)議開始,標(biāo)志人工智能技術(shù)正式誕生。人工智能經(jīng)過三起三落,如今又一次的進(jìn)入到了公眾的視野。2016和2017年兩年人工智能炒得很火,尤其是AlphaGo相繼擊敗了李世石和柯潔。在圍棋界,AlphaGo可以說是橫行無忌,無人能敵。
本文引用地址:http://butianyuan.cn/article/201806/381221.htm從AlphaGo開始,人工智能走入大眾的視野。媒體競相報(bào)道,將人工智能的熱度炒到非常高的高度。如今人工智能雖然還是很熱,但是熱度已經(jīng)被區(qū)塊鏈奪了走。但是無論是世界上有能力的各個(gè)國家,還是國際上的有實(shí)力的科技巨頭,都在布局人工智能領(lǐng)域,例如谷歌收購了與人工智能相關(guān)的十幾家公司,其中就包括被谷歌收購了的研發(fā)了AlphaGo的DeepMind公司。
無疑,人工智能未來必然是我們發(fā)展的方向,那么在人工智能發(fā)展的過程中有哪些痛點(diǎn)需要解決呢?Innov100平臺分析認(rèn)為有以下10個(gè)痛點(diǎn)。
1.人才稀缺
人工智能在人才方面極度稀缺。據(jù)領(lǐng)英數(shù)據(jù)顯示,全球在人工領(lǐng)域的人才不足25萬人,其中在美國的人才最多。其余主要分布在歐洲,印度,中國,加拿大等。其中有10年以上工作經(jīng)驗(yàn)的不足30%。所以那個(gè)國家,企業(yè)想在人工智能領(lǐng)域做出成績,首先就是人才的爭奪。如最近中興被美國制裁,引起對“國芯“的發(fā)問,首先出現(xiàn)的問題就是人才稀缺,人才的優(yōu)秀程度,人才的聚集程度,決定了一個(gè)企業(yè)走向欣榮還是衰敗。
2.道德價(jià)值觀判定
當(dāng)人工智能遇到傷害事件發(fā)生的時(shí)候應(yīng)該如何抉擇。
例如無人駕駛?cè)缃褚苍谌缁鹑巛钡陌l(fā)展。人工智能很有可能將首先應(yīng)用到無人駕駛領(lǐng)域。但是在無人駕駛領(lǐng)域有時(shí)候會(huì)出現(xiàn)這樣的情況,當(dāng)無人駕駛汽車行走在道路上,正前方忽然沖出來一個(gè)人,左右兩邊也正好有人,無論車輛如何操作都無法避免的會(huì)造成傷害,那么這個(gè)時(shí)候人工智能該如何抉擇。
在計(jì)算機(jī)的世界,是一個(gè)概率的世界,如果正前方是老人,左右是小孩的話,是不是會(huì)分析小孩比老人更有價(jià)值,然后完成所有的最優(yōu)解。但是這很明顯是違背道德常識的。
3.莫拉維克悖論
人工智能,簡單理解就是像人類一樣的智能。那么人工智能所遵循的邏輯或者方法應(yīng)該是類人類的才對??墒菍?shí)際上人工智能與人類智能完全不同。
莫拉維克悖論(Moravec'sparadox) 是由人工智能和機(jī)器人學(xué)者所發(fā)現(xiàn)的一個(gè)和常識相佐的現(xiàn)象。和傳統(tǒng)假設(shè)不同,計(jì)算機(jī)完成人類所獨(dú)有的高階智慧能力只需要非常少的計(jì)算能力,例如推理。但是完成無意識的技能和直覺卻需要極大的運(yùn)算能力。這個(gè)理念是由漢斯·莫拉維克、布魯克斯(Rodney Brooks)、馬文·閔斯基等人于1980年代所闡釋。
4.算力限制
目前進(jìn)行人工智能算力平臺的搭建,需要大量的CPU和GPU。而谷歌公司的AlphaGo使用的TPU,類似與GPU的一種算法芯片,能耗功效比非常高。訓(xùn)練AlphaGo需要的算力相當(dāng)于我們市面上常見的消費(fèi)級1080TI 大約12000塊,至少千萬級別的開支。
對于谷歌,F(xiàn)acebook,騰訊等這樣的巨頭公司,這樣的開銷也許不算什么。但是對于一些規(guī)模較小的公司,這將是非常大的一個(gè)問題。畢竟人工智能想要步入成熟期,必須解決算力成本問題。
5.隱私安全問題
隱私安全問題在很多行業(yè)都是非常重要的話題,為什么說人工智能行業(yè)的隱私安全會(huì)成為制約他的痛點(diǎn)。
因?yàn)槿绻萌斯ぶ悄軄硖岣呷藗兊纳钚屎推焚|(zhì),那么必須盡量多的獲取個(gè)人信息,因?yàn)锳I模型需要訓(xùn)練,所以很可能需要將個(gè)人信息上傳到云端。另外,目前沒有辦法依靠本地的算力支撐人工智能。隱私與便利常常矛盾,但是人工智能如果想有好的發(fā)展,必須兩者兼顧。
最近,F(xiàn)acebook因?yàn)樾孤┝硕噙_(dá)8000萬的用戶信息,扎克伯格被美國政府要求出席美國國會(huì)聽證會(huì),并被詢問的總時(shí)長達(dá)10小時(shí)。并在聽證會(huì)中多次提到用人工智能來解決部分業(yè)務(wù)需求。
6.需要大量的數(shù)據(jù)標(biāo)記
目前現(xiàn)有的AI模型都需要大量的數(shù)據(jù)標(biāo)記,因?yàn)槟P痛蠖鄶?shù)是監(jiān)督學(xué)習(xí)模型。大量的數(shù)據(jù)標(biāo)記,不僅僅會(huì)要求更多的人力資源,同時(shí)人的參與難免會(huì)為數(shù)據(jù)帶來一定程度的誤差。
目前可以很好解決這一問題是利用強(qiáng)化學(xué)習(xí),進(jìn)行無監(jiān)督學(xué)習(xí)。谷歌公司的AlphaGo就是利用無監(jiān)督學(xué)習(xí)進(jìn)行訓(xùn)練的。
7.數(shù)據(jù)稀缺
AI模型不僅僅目前不僅需要進(jìn)行人工對信息標(biāo)記,同時(shí)也需要巨量數(shù)據(jù)才可以達(dá)到人類正確識別的程度。以AlphaGo為例,在擊敗李世石的那個(gè)版本AlphaGo進(jìn)行了3000萬次圖譜學(xué)習(xí)。擊敗柯潔的那個(gè)版本,進(jìn)行了400多萬次,自我對弈。
除了對數(shù)據(jù)量的需求極大,對數(shù)據(jù)的維度也要求盡可能的全面。總之就是,能有最好都給我,越全面越好。但是實(shí)際情況就是,結(jié)構(gòu)性的全面的數(shù)據(jù)在現(xiàn)實(shí)生活中很難獲得,而且也很難獲得比較準(zhǔn)確的數(shù)據(jù)。
8.黑匣子問題
在人工智能設(shè)計(jì)之初,賦予其相應(yīng)的發(fā)展方向是,根據(jù)人為制定的規(guī)則和人為制造的邏輯執(zhí)行相應(yīng)的任務(wù)。但是實(shí)際發(fā)現(xiàn)這樣的并沒有辦法使得人工智能有非常讓人滿意的實(shí)際應(yīng)用。
一直到如今非常熱門深度學(xué)習(xí),通過一定程度人為干預(yù),AI模型經(jīng)過數(shù)據(jù)訓(xùn)練和結(jié)果干預(yù),會(huì)自己生成一個(gè)擬合算法,生成人類預(yù)期的結(jié)果。但是由于是AI模型自動(dòng)生成,會(huì)存在不可解釋的問題。如果有一天AI 模型得出或者做出出乎我們意料之外的事情,我們卻沒有能力來解釋這個(gè)時(shí)間背后的原因。
9.模型可移植性差
AI模型的可用性是隨著訓(xùn)練的數(shù)據(jù)量增大而增高。但是所需要的數(shù)據(jù)量是個(gè)非常大的量級,但即使是重復(fù)度很高的模型,也沒有辦法從上一個(gè)模型中獲得其一些經(jīng)驗(yàn),只能自己從頭開始訓(xùn)練。
這樣會(huì)帶來一些問題,比如會(huì)增加數(shù)據(jù)獲取成本,時(shí)間成本,能耗成本等,這將給發(fā)展中的企業(yè)帶來極大的困擾。模型的可移植性差,勢必影響技術(shù)的發(fā)展傳播速度,也會(huì)增加傳播成本,這對于一個(gè)需要快速發(fā)展的新興科技,確實(shí)是一個(gè)非常重要的問題。
10.可信任性
這個(gè)一個(gè)復(fù)合的問題。AI模型在處理可評測結(jié)果的應(yīng)用中可能表現(xiàn)非常出色,比如在圖像識別領(lǐng)域,我們可以用一個(gè)確定的概率來評價(jià)AI模型的正確識別度,也可以說是可信任度是明確可見的。
但是,如果在未來的應(yīng)用場景中,需要AI模型提供一定的商業(yè)決策,或者給出一些建議。我們并沒有很好的參照體系來評價(jià)AI模型的決策和建議是否是準(zhǔn)確的,是否是最優(yōu)解。這將影響決策的方向和準(zhǔn)確,也會(huì)為很多商業(yè)人士帶來不必要的困擾。
目前,生活中已經(jīng)有很多智能模型輔助決策了,但是這樣的模型都是可以解釋的,只對決策起到一定的參考作用。但是AI模型,我們是無法解釋其得出結(jié)論的原因的,那么其可信任度將是一個(gè)無法逃避的問題。
人工智能從概念誕生之起,到如今已經(jīng)有60年的歷史。如今其已經(jīng)在一些領(lǐng)域開始發(fā)揮其重要的作用了,雖然有很多痛點(diǎn)有待解決,但是哪一個(gè)新技術(shù)從開始到成熟沒有經(jīng)歷過各種問題。而且,人工智能未來的潛力十分巨大,相信未來可以有更好的發(fā)展和突破。
評論