谷歌研究員被群嘲:LaMDA有人格是胡說(shuō)八道!谷歌也回應(yīng):想多了,就是會(huì)聊而已
跟統(tǒng)計(jì)機(jī)器談感情,你就輸了。
——
文|杜晨 編輯|VickyXiao 題圖來(lái)源:News Text Area、谷歌
什么?AI 具備人格了??谷歌前不久搞出來(lái)了一個(gè)超大規(guī)模語(yǔ)言模型 LaMDA。公司里有個(gè)研究員 Blake Lemoine 跟它聊了很久,對(duì)其能力感到十分驚訝,于是下了個(gè)結(jié)論:LaMDA 可能已經(jīng)具備人格了。(原話(huà)用的詞是 sentient,在不同的語(yǔ)境下可以被翻譯為感情、智慧、知覺(jué)等。)很快,這位仁兄就被“帶薪休假了”。
但他不是一個(gè)人:就連公司 VP Blaise Agüera y Arcas 都在發(fā)表文章,表示 AI 在獲得意識(shí)方面實(shí)現(xiàn)了巨大進(jìn)步,“已經(jīng)進(jìn)入了一個(gè)嶄新時(shí)代?!?/span>

| AI具備人格?眾大佬嗤之以鼻斯坦福 HAI 中心主任 Erik Brynjolfsson 直接把這件事比喻為“面對(duì)留聲機(jī)的狗”,他發(fā)推表示:“基礎(chǔ)模型 (foundation models,也即自我監(jiān)督的大規(guī)模深度神經(jīng)網(wǎng)絡(luò)模型) 非常擅長(zhǎng)做的一件事,就是根據(jù)提示,將文本采用統(tǒng)計(jì)學(xué)上合理的方式串起來(lái)。但是如果你說(shuō)他們是有知覺(jué)的,就好比狗聽(tīng)到留聲機(jī)里的聲音,以為它的主人在里面一樣?!?/span>



1)大家天天炒的 AI 并不是真的 AI,而是統(tǒng)計(jì)學(xué)系統(tǒng),是機(jī)器人 (robot);2)我們不應(yīng)該賦予機(jī)器人權(quán)利;3)我們甚至壓根就不應(yīng)該討論是否要賦予機(jī)器人權(quán)利……比利時(shí) Donders Institute 計(jì)算認(rèn)知科學(xué)教授 Olivia Guest 也加入了“戰(zhàn)局“,稱(chēng)整個(gè)事情的邏輯是錯(cuò)亂的。“‘我看到的東西像人,因?yàn)槲?/span>按照人的樣子開(kāi)發(fā)的它,所以它是一個(gè)人’——簡(jiǎn)直是倒騎驢的邏輯。”




事情在社交網(wǎng)絡(luò)上發(fā)酵之后,谷歌很快作出了回應(yīng):LaMDA 和公司近幾年的大型 AI 項(xiàng)目一樣,都經(jīng)過(guò)了多次嚴(yán)格的 AI 道德方面的審核,對(duì)其內(nèi)容、質(zhì)量、系統(tǒng)安全性等進(jìn)行了多方面的考量。今年早些時(shí)候,谷歌也專(zhuān)門(mén)發(fā)表了一篇論文,公開(kāi)了 LaMDA 開(kāi)發(fā)過(guò)程當(dāng)中的合規(guī)細(xì)節(jié)。“在 AI 群體內(nèi),對(duì)于具備感知的 AI/通用 AI 的長(zhǎng)期可能性,確實(shí)有一些研究。然而在今天把對(duì)話(huà)模型來(lái)擬人化,這樣做是沒(méi)有意義的,因?yàn)檫@些模型是沒(méi)有知覺(jué)的?!?/span>“這些系統(tǒng)能夠基于數(shù)以百萬(wàn)計(jì)的句子來(lái)模仿交流的方式,并且在任何有趣的話(huà)題上都能夠扯出有意思的內(nèi)容。如果你問(wèn)它們做一支冰激淋恐龍是怎樣的體驗(yàn),它們可以生成大量關(guān)于融化咆哮之類(lèi)的文字。”
(These systems imitate the types of exchanges found in millions of sentences, and can riff on any fantastical topic — if you ask what it’s like to be an ice cream dinosaur, they can generate text about melting and roaring and so on.)
類(lèi)似的故事我們見(jiàn)過(guò)太多了,特別是前幾年一個(gè)非常經(jīng)典的電影《她》(Her) 里面,主角對(duì)于虛擬助手的身份界限越來(lái)越不清晰,把“她”當(dāng)成了人。然而根據(jù)電影的描繪,這種錯(cuò)覺(jué)其實(shí)來(lái)自于當(dāng)代人社交失敗、情感破裂、孤獨(dú)感等一系列自我和社會(huì)性的問(wèn)題,跟聊天機(jī)器人到底是不是人這一技術(shù)性的問(wèn)題,壓根沒(méi)有半毛錢(qián)關(guān)系。
電影《她》劇照 圖片來(lái)源:華納兄弟影業(yè)
當(dāng)然,有這些問(wèn)題并不是我們的錯(cuò),想要把機(jī)器人當(dāng)成人,也不是那個(gè)研究員的錯(cuò)。將各種情緒(比如思念)托付在物件上,是人類(lèi)自古以來(lái)就具有的一種創(chuàng)造性的情感能力。將大規(guī)模語(yǔ)言模型當(dāng)成人,對(duì)其傾注情感,雖然被各位 AI 大佬批評(píng)為一種心理誤差,不也正是人之所以為人的體現(xiàn)嗎?不過(guò),至少在今天,談啥都別跟機(jī)器人談感情……參考資料:[1] Nonsense on Stilts by Gary Marcus https://garymarcus.substack.com/p/nonsense-on-stilts*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。