OpenAI首席科學(xué)家宣稱,大型神經(jīng)網(wǎng)絡(luò)或已擁有“輕微自主意識”
近日,人工智能組織 OpenAI 的聯(lián)合創(chuàng)始人、計算機(jī)專家伊爾亞·蘇茨克維(Ilya Sutskever)在 Twitter 上聲稱,“當(dāng)今最大的神經(jīng)網(wǎng)絡(luò)可能已擁有輕微的意識”。
此言論一出,立刻便在社交媒體上引起軒然大波。
關(guān)于人工智能是否擁有意識的爭議和討論,在科研界一直未曾停歇過。而蘇茨克維作為 OpenAI 首席科學(xué)家,在深度學(xué)習(xí)方面曾作出過突出貢獻(xiàn)。如此一位有影響力的頂尖科學(xué)家突然就此敏感話題發(fā)表公開言論,自然而言招致了眾多非議。
OpenAI 首席科學(xué)家“深陷”話題
據(jù)悉,OpenAI 由一眾來自硅谷、西雅圖的科技巨擘們聯(lián)合創(chuàng)立,用以預(yù)防人工智能可能帶來的危害,在人工智能領(lǐng)域擁有廣泛影響力。特斯拉 CEO 埃隆·馬斯克(Elon Musk)曾經(jīng)亦是該組織的創(chuàng)始成員
但在 2019 年,馬斯克主動宣布離開該組織。據(jù)其透漏,離開的原因一方面是擔(dān)心該組織會在人工智能人才聘用方面與特斯拉產(chǎn)生沖突。另一方面,馬斯克認(rèn)為 OpenAI 在某種程度上類似于“假新聞發(fā)生器”,總是會制造噱頭讓自己處于輿論中心。
例如,OpenAI 在 2020 年發(fā)布了語言模型 GPT-3 。然而該系統(tǒng)在首次發(fā)布時卻被用來創(chuàng)建了一個聊天機(jī)器人,用以模仿死去的女人。除此之外,其還被游戲玩家曝露出包含戀童癖內(nèi)容。這一切都導(dǎo)致 OpenAI 在輿論方面飽受詬病。
因此,蘇茨克維關(guān)于人工智能已擁有意識的言論也被許多人認(rèn)為是炒作。
美國俄勒岡州立大學(xué)人工智能專家托馬斯·迪特里奇(Thomas Dietterich)在 Twitter 上回應(yīng),“如果意識是反思和塑造自己的能力,那么我在今天的網(wǎng)絡(luò)中還沒有看到任何這樣的能力,我會認(rèn)為你是在故意發(fā)布煽動性的內(nèi)容 。
此外,也有部分科學(xué)家認(rèn)為這種毫無根據(jù)的說法會讓大眾陷入恐慌。
澳大利亞新南威爾士大學(xué)西德尼分校人工智能研究員托比沃爾什(Toby Walsh)評論說,“每次這種投機(jī)性的評論播出時,都需要幾個月的努力才能讓話題回到人工智能帶來的更現(xiàn)實的機(jī)會和威脅上?!?br />
馬斯克也曾就人工智能的危險性做出過分析。雖然他站在創(chuàng)造人工智能技術(shù)的最前沿,但他同時也意識到人工智能的潛在威脅。
在 2014 年,他于社交軟件上說道,“我們需要對人工智能非常小心,它可能比核武器更危險。”2020 年,馬斯克再次發(fā)聲,認(rèn)為人工智能在智力方面或?qū)⒊饺祟?,這并不意味著事情會變得糟糕,但卻會使局面變得極其不穩(wěn)定。
人類水平的人工智能仍在長跑途中
那么,大型神經(jīng)網(wǎng)絡(luò)是否真的具有自主意識呢?
圖靈獎得主、Meta 首席科學(xué)家楊立昆(Yann LeCun)直接對蘇茨克維的觀點予以反駁,他認(rèn)為即使對神經(jīng)網(wǎng)絡(luò)和意識分別用“大型”和“輕微”等詞來加以限定,這種說法依舊不正確。
早在 2018 年,楊立昆就曾明確表示,“人工智能缺乏對世界的基本認(rèn)識,甚至還不如家貓的認(rèn)知水平。”
事實上,當(dāng)前的大型神經(jīng)網(wǎng)絡(luò)通常很難脫離數(shù)據(jù)驅(qū)動的范式。這也意味著人工智能所學(xué)習(xí)的知識依舊取決于人類的“投喂”,其并不具備自主創(chuàng)新的能力,產(chǎn)生意識自然也就無從說起。
而想要使人工智能具備自主意識,擁有表達(dá)心情、發(fā)現(xiàn)新知識等能力,則需要人類在該領(lǐng)域取得長足的進(jìn)步。這將是下一代人工智能研究的重點,短時間內(nèi)則很難成為現(xiàn)實。
不過,并不是所有的學(xué)者都對蘇茨克維的說法嗤之以鼻,來自麻省理工學(xué)院的計算機(jī)科學(xué)家塔梅·貝西羅格魯(Tamay Besiroglu)便認(rèn)同該觀點,并積極為其辯護(hù)。
“看到這么多杰出的人嘲笑這個想法令人失望,”貝西羅格魯在 Twitter 上說,“這讓我對這個領(lǐng)域認(rèn)真處理一些他們在未來幾十年無疑將面臨的深刻、奇怪和重要問題的能力降低了希望?!?br />
在貝西羅格魯看來,即使人類無法將“無意識”和“可能有輕微意識”的模型劃清界限,但這個問題本身是非常有意義的,不應(yīng)該被忽視。
拋開爭議本身,我們需要注意到,蘇茨克維長期以來一直專注于研究通用人工智能(Artificial general intelligence,AGI)。這是一種以人類或超人能力運(yùn)行的人工智能,在某種程度上與人類有非常高的相似性。從這個角度來看,蘇茨克維提出的說法或許并不顯得突兀。
近年來,人工智能發(fā)展得越來越迅速,以至于人類陷入一種焦慮,從而不得不與自身創(chuàng)造出來的有意識的計算機(jī)這一概念作斗爭。
可以預(yù)見的是,關(guān)于有意識的人工智能的爭議,在未來的一段時間里還將會一直延續(xù)。但與此同時,這種辯論也將推動人類在如何定義人工智能的意識方面逐步確立規(guī)則和界限,從而引導(dǎo)人工智能向善。而這,或許就是科學(xué)爭論的真正魅力所在。
-End-
參考:
https://www.dailymail.co.uk/sciencetech/article-10503703/Artificial-Intelligence-expert-warns-slightly-conscious-AI.html
https://mindmatters.ai/2022/02/can-ai-really-be-slightly-conscious-can-anyone/
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。