語(yǔ)音和面部識(shí)別技術(shù)能幫助AI在情商上超越人類嗎
長(zhǎng)期以來(lái),我一直把研究情商作為一種業(yè)余愛(ài)好。直到最近,我依然相信,即使人工智能(AI)接手所有需要記憶和邏輯推理能力的任務(wù)之后,情商仍將是我們?nèi)祟惖暮诵膬?yōu)勢(shì)之一。
本文引用地址:http://butianyuan.cn/article/201710/370233.htm在過(guò)去的幾年里,我將主要精力放在研究情商算法上,因?yàn)檫@是我的創(chuàng)業(yè)公司Inbot的主要業(yè)務(wù)。然而對(duì)它們的研究越多,我就越確信,人類相對(duì)于AI的情商優(yōu)勢(shì)正在縮小。
以色列歷史學(xué)家尤瓦爾·赫拉利(Yuval Noah Harari)在他的暢銷書(shū)《Homo Deus》中寫(xiě)道,人類本質(zhì)上是數(shù)百萬(wàn)年進(jìn)化形成的生物算法的集合。他聲稱,沒(méi)有理由認(rèn)為非有機(jī)算法無(wú)法復(fù)制和超越有機(jī)算法所能做到的一切。
麻省理工學(xué)院物理學(xué)教授馬克斯·泰格馬克 (Max Tegmark)也在他的著作《生命3.0:人工智能時(shí)代的人類》(Life 3.0: Being Human in the Age of Artificial Intelligence)中表達(dá)了類似觀點(diǎn)。他提出了一個(gè)令人信服的理由,即幾乎所有智力本質(zhì)上都是獨(dú)立的。
他們的論述都是有道理的。我們的情感和感覺(jué)是對(duì)環(huán)境做出反應(yīng)的有機(jī)算法。算法是由我們的文化歷史、教育和生活經(jīng)歷塑造的,它們可以被逆向推導(dǎo)。
如果我們同意赫拉利博士和泰格馬克博士的觀點(diǎn),意味著我們相信計(jì)算機(jī)最終會(huì)比人類自己更擅長(zhǎng)操縱人類的情感。在現(xiàn)實(shí)生活中,人類實(shí)際上非常不善于處理與情商有關(guān)的東西。
我們大多數(shù)人都對(duì)自己在別人身上觸發(fā)的最基本情感一無(wú)所知。我們通常都以毫無(wú)疑義的爭(zhēng)吵結(jié)束交流,并摒棄了更好的理由,因?yàn)樗鼈冞`背了我們的偏見(jiàn),即基于刻板的印象來(lái)評(píng)判別人。
我們不理解文化背景、家庭教育的影響,亦或是我們討論伴侶當(dāng)前個(gè)人生活狀況的影響。我們很少試圖站在別人的立場(chǎng)上以不同的角度看待問(wèn)題。如果違背我們的世界觀,我們就不會(huì)嘗試去理解他們的理由。我們不想挑戰(zhàn)我們的偏見(jiàn)或成見(jiàn)。
在網(wǎng)上,情況要糟糕得多。如果我們認(rèn)為他們的觀點(diǎn)與我們的偏見(jiàn)相悖,那么我們就會(huì)從那些我們根本不了解的人的評(píng)論中得出草率的結(jié)論,而且這些結(jié)論往往是錯(cuò)誤的。最后,我們有一個(gè)進(jìn)化特征,即把生命看作“最適者才能生存”。這讓我們無(wú)法利用他人,專注于提升自我。
最成功的人往往為了獲得優(yōu)勢(shì)而撒謊,通過(guò)操縱來(lái)獲得優(yōu)勢(shì),并通過(guò)欺騙隱瞞自己的錯(cuò)誤。他們是要不惜一切代價(jià)贏得比賽,盡管這個(gè)過(guò)程會(huì)給你帶來(lái)很多情感上的傷害。
當(dāng)我們?nèi)祟惱^續(xù)努力相互理解時(shí),高情商的AI已經(jīng)獲得速發(fā)展。手機(jī)攝像頭無(wú)處不在,面部追蹤軟件已經(jīng)足夠先進(jìn),可以分析我們面部表情中最微小的細(xì)節(jié)。最先進(jìn)的面部追蹤軟件甚至能分辨出虛假的情感。
語(yǔ)音識(shí)別和自然語(yǔ)言處理算法也能更好地從音頻中識(shí)別出我們的情緒和情緒狀態(tài)。分析人臉和聲音情緒反應(yīng)的技術(shù)已經(jīng)遠(yuǎn)遠(yuǎn)超出了一般人的能力,而且在許多領(lǐng)域甚至超過(guò)了最有能力的人。AI可以通過(guò)觀察我們的面部識(shí)別出你的性取向、政治傾向或智商等個(gè)人特質(zhì)。
雖然AI可以從你的面部或語(yǔ)音中識(shí)別出幾乎任何情緒,但我們?cè)趯?duì)情商AI的科學(xué)研究上還沒(méi)有投入太多精力。
目前,這一領(lǐng)域的進(jìn)步幾乎完全是由商業(yè)利益和人類貪婪所驅(qū)動(dòng)的。
媒體和娛樂(lè)公司需要我們的關(guān)注和參與才能賺錢。像Facebook和YouTube這樣的公司有大量的工程師在努力創(chuàng)造更好的方法,以便讓我們沉迷于他們的內(nèi)容。我在之前的一篇文章中提到過(guò)這個(gè)問(wèn)題,名為《上癮行業(yè)令人擔(dān)憂的增長(zhǎng)》。
這些算法的設(shè)計(jì)目的是為了激發(fā)我們的情感,讓我們保持開(kāi)心。它們已經(jīng)非常非常擅長(zhǎng)執(zhí)行這類任務(wù)。這些算法的許多核心開(kāi)發(fā)人員已經(jīng)開(kāi)始害怕技術(shù)對(duì)我們的影響,并警告稱我們的思想可能被劫持。
與人類不同,AI可以利用你的整個(gè)網(wǎng)絡(luò)歷史,在大多數(shù)情況下,它比任何人記住的朋友信息都要多。Facebook和谷歌開(kāi)發(fā)的一些最先進(jìn)的機(jī)器學(xué)習(xí)算法已經(jīng)被應(yīng)用于數(shù)十億人的海量數(shù)據(jù)中。根據(jù)你的交流、朋友和文化背景,這些算法已經(jīng)了解你的欲望、偏見(jiàn)和情感觸發(fā)因素。在許多領(lǐng)域,它們甚至比你更了解自己。
算法的進(jìn)步如此之大,以至于Facebook和谷歌現(xiàn)在被指制造出可以影響公眾意見(jiàn)、迅速改變政治格局、影響選舉的過(guò)濾泡沫。這些算法變得如此復(fù)雜,以至于人類無(wú)法完全控制它們。Facebook的安全主管亞歷克斯·斯塔莫(Alex Stamos)最近在推特上說(shuō),記者們批評(píng)他們存在操作行為非常不公平。事實(shí)上,他們沒(méi)有任何不會(huì)導(dǎo)致人們指責(zé)他們有偏見(jiàn)的解決方案。
人們有很多偏見(jiàn),這已經(jīng)影響了我們的判斷。我們看到的世界是我們所希望看到的,而不是它的本來(lái)面目。如今,由人類開(kāi)發(fā)的算法也包含了許多人類特有的偏見(jiàn)。但如果我們想要消除這種偏見(jiàn),那就相對(duì)容易了。
隨著AI越來(lái)越擅長(zhǎng)操控我們,我發(fā)現(xiàn)人們樂(lè)于將自己的生活交給未來(lái)算法來(lái)管理。我們已經(jīng)在實(shí)踐中看到這種情況。只要在公共場(chǎng)合環(huán)顧四周,你會(huì)發(fā)現(xiàn)幾乎每個(gè)人都被他們的智能手機(jī)所吸引。人們每天平均觸摸手機(jī)2617次,這是一個(gè)預(yù)示著未來(lái)科技將會(huì)快速發(fā)展的指示器。我們可能很快就會(huì)看到,人類與AI的角色可能發(fā)生轉(zhuǎn)換,AI利用人類作為有機(jī)機(jī)器人來(lái)實(shí)現(xiàn)其目標(biāo)。
評(píng)論