新聞中心

EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 深度學(xué)習(xí)的缺陷嚴(yán)重

深度學(xué)習(xí)的缺陷嚴(yán)重

作者: 時(shí)間:2021-06-09 來源:電子產(chǎn)品世界 收藏

北京通用人工智能研究院院長(zhǎng)朱松純教授近日指出:“當(dāng)前比較流行的人工智能技術(shù)采用的是“大數(shù)據(jù),小任務(wù)”范式,產(chǎn)業(yè)界更傾向于將人工智能技術(shù)等同于“大數(shù)據(jù)+深度學(xué)習(xí)+超大算力”。基于這一范式的人工智能技術(shù)距離人們對(duì)AI的期待還有較大差距,例如,AI只能完成特定的、人類事先定義的任務(wù)做不到通用;每項(xiàng)任務(wù)都需要大量標(biāo)注的數(shù)據(jù),沒有數(shù)據(jù)就不知所措;模型不可解釋與知識(shí)表達(dá)不能交流,無法與人做多回合交互等?!按髷?shù)據(jù)+深度學(xué)習(xí)”范式是將訓(xùn)練數(shù)據(jù)輸入到神經(jīng)網(wǎng)絡(luò)中,然后得到一個(gè)預(yù)測(cè)值,這個(gè)神經(jīng)網(wǎng)絡(luò)由數(shù)量龐大的神經(jīng)元組成,其演算機(jī)制無法解釋,造成人無法信任AI。因此,我們未來要發(fā)展具有可解釋性的人工智能,讓人工智能技術(shù)跳出“黑箱”,成為可解釋、可解讀、可信任的人工智能?!?/p>本文引用地址:http://butianyuan.cn/article/202106/426229.htm

不用等未來、中國(guó)嵌入式系統(tǒng)產(chǎn)業(yè)聯(lián)盟理事、天津市阿波羅信息技術(shù)有限公司首席科學(xué)家顧澤蒼博士多年前就已經(jīng)在日本從事三十多年人工智能積累的豐富經(jīng)驗(yàn)基礎(chǔ)上,專門針對(duì)深度學(xué)習(xí)算法的缺陷,獨(dú)自發(fā)明出沒有“黑箱”的可解釋、可解讀、可信任的自律學(xué)習(xí)SDL通用人工智能算法。

顧博士并領(lǐng)導(dǎo)二十多人小團(tuán)隊(duì),用很少的資金、在很短的時(shí)間研制出感知、決策和控制都用SDL算法的自動(dòng)駕駛汽車,經(jīng)一年多路測(cè)達(dá)到世界領(lǐng)先水平。

在研制自動(dòng)駕駛汽車的實(shí)踐中,顧博士又發(fā)明出可能會(huì)成為下一代人工智能的機(jī)器意識(shí)算法。顧博士的團(tuán)隊(duì)已莊嚴(yán)向社會(huì)承諾:如融到3000萬資金,將用半年研制出有人駕駛IQ的自動(dòng)駕駛汽車。

可嘆!我國(guó)的人工智能已被深度學(xué)習(xí)算法嚴(yán)重主導(dǎo),至今,還沒有給顧博士因年老多病,即將到日本與家人團(tuán)聚養(yǎng)老之前,能讓他發(fā)明的自律學(xué)習(xí)SDL算法和機(jī)器意識(shí)算法在中國(guó)得到認(rèn)可和應(yīng)用,以表他回報(bào)祖國(guó)的機(jī)會(huì)。

中國(guó)嵌入式系統(tǒng)產(chǎn)業(yè)聯(lián)盟 郭淳學(xué)

附:網(wǎng)上有關(guān)文

朱松純:可解釋性是人工智能獲得人類信任的關(guān)鍵

原創(chuàng) 通院BIGAI  通院BIGAI  今天

6月6日,北京通用人工智能研究院院長(zhǎng)朱松純教授受邀參加由中國(guó)人工智能學(xué)會(huì)主辦的CAAI國(guó)際人工智能會(huì)議,并帶來了《可解釋性人工智能:如何讓機(jī)器獲得人類有依據(jù)的信任》的主題報(bào)告。

本次大會(huì)旨在搭建國(guó)際學(xué)術(shù)交流平臺(tái),為全球致力于人工智能技術(shù)研究的學(xué)者提供跨學(xué)科、跨領(lǐng)域、跨地區(qū)交流的機(jī)會(huì),增強(qiáng)學(xué)術(shù)交流與產(chǎn)業(yè)交流的深度與廣度,激發(fā)新思想、培育新力量。

朱松純教授報(bào)告

當(dāng)前人工智能技術(shù)正在賦能各行各業(yè),出現(xiàn)在了人們工作、生活的方方面面。但當(dāng)人們與人工智能設(shè)備互動(dòng)時(shí),又會(huì)對(duì)人工智能時(shí)不時(shí)表現(xiàn)出的“智障”產(chǎn)生困惑,AI為什么總是答非所問?針對(duì)這些行業(yè)痛點(diǎn),朱松純教授在專題報(bào)告中討論了當(dāng)前人工智能前沿研究的一個(gè)十分緊要的課題:智能體(AI agent, 這里泛指人工智能系統(tǒng))如何有效地“解釋”自己,取得人類用戶的“信任”, 從而產(chǎn)生高效的人機(jī)協(xié)作,進(jìn)而融入一個(gè)人機(jī)共生共存的社會(huì)。

朱教授指出,當(dāng)前比較流行的人工智能技術(shù)采用的是“大數(shù)據(jù),小任務(wù)”范式,產(chǎn)業(yè)界更傾向于將人工智能技術(shù)等同于“大數(shù)據(jù)+深度學(xué)習(xí)+超大算力”?;谶@一范式的人工智能技術(shù)距離人們對(duì)AI的期待還有較大差距,例如,AI只能完成特定的、人類事先定義的任務(wù)做不到通用;每項(xiàng)任務(wù)都需要大量標(biāo)注的數(shù)據(jù),沒有數(shù)據(jù)就不知所措;模型不可解釋與知識(shí)表達(dá)不能交流,無法與人做多回合交互等?!按髷?shù)據(jù)+深度學(xué)習(xí)”范式是將訓(xùn)練數(shù)據(jù)輸入到神經(jīng)網(wǎng)絡(luò)中,然后得到一個(gè)預(yù)測(cè)值,這個(gè)神經(jīng)網(wǎng)絡(luò)由數(shù)量龐大的神經(jīng)元組成,其演算機(jī)制無法解釋,造成人無法信任AI。

因此,我們未來要發(fā)展具有可解釋性的人工智能,讓人工智能技術(shù)跳出“黑箱”,成為可解釋、可解讀、可信任的人工智能??山忉尩娜斯ぶ悄埽‥xplainable AI)大致分為兩個(gè)層次:1. 自省與可解讀性,即機(jī)器與人類達(dá)成共同語言表達(dá);2. 自辯的能力,即機(jī)器要向人類解釋其計(jì)算的機(jī)理與過程。

當(dāng)談到如何建立信任時(shí),朱教授說,AI如果要獲得人的信任,要在兩個(gè)層次上獲得人的信任:1.能力的邊界:AI要讓人清晰地知道在什么條件下AI能做到什么樣的性能,可以完成哪些任務(wù);2.感情的紐帶:AI要與人保持相近的價(jià)值觀,把人類的價(jià)值放在重要位置,要讓人知道AI和自己是命運(yùn)共同體,時(shí)刻維護(hù)人的利益。通過人機(jī)之間的迭代、交流、協(xié)作增進(jìn)互相理解,進(jìn)而達(dá)成共識(shí),產(chǎn)生“有依據(jù)的信任”(Justified Trust)。

為此,朱教授提出了人機(jī)之間建立有心智理論的可解釋性框架 (Explanation withTheory-of-Mind, X-ToM)。人機(jī)之間需要對(duì)客觀的物理世界產(chǎn)生相同的感知,通過交流認(rèn)識(shí)到對(duì)方是如何看待同一個(gè)事物的從而形成“共識(shí)”,即你知道我是知道你知道的,X-ToM便是這種人機(jī)之間的交流模型。

AI通過人機(jī)交互的X-ToM框架,并采用可解釋的“與或圖模型”,實(shí)現(xiàn)模型的可解釋、可追溯、可修改,讓人工智能技術(shù)成為透明的、可控的、可信的技術(shù)。在實(shí)際應(yīng)用中,人們知道AI給出答案的依據(jù)是什么,計(jì)算的過程是什么,進(jìn)而實(shí)現(xiàn)人對(duì)人工智能有依據(jù)的信任。

未來,北京通用人工智能研究院將深入探索視覺、語言與認(rèn)知形成的學(xué)習(xí)閉環(huán),進(jìn)而實(shí)現(xiàn)人機(jī)之間擁有共識(shí)、形成共同的社會(huì)規(guī)范和行為價(jià)值,賦予人工智能以三觀,讓人工智能技術(shù)真正融入人類社會(huì),創(chuàng)造通用智能體,提升全人類福祉的愿景。



關(guān)鍵詞:

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉