新聞中心

EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 人類的臉部藏著什么秘密?AI只想盯著你的臉看

人類的臉部藏著什么秘密?AI只想盯著你的臉看

作者: 時(shí)間:2019-01-24 來源:網(wǎng)易智能 收藏
編者按:在CES上展出的商品可能是新鮮的,然而,人們?cè)噲D讀取面部信息可以追溯到古代。根據(jù)J. Paul Getty Trust的Sarah Waldorf的說法,希臘數(shù)學(xué)家畢達(dá)哥拉斯基于“ 看起來多么有天賦 ”來選擇學(xué)生。在十五世紀(jì),蘇格蘭詹姆士二世面部的朱紅色胎記被認(rèn)為是他沉郁脾氣的外在表現(xiàn)。在殖民地歐洲,許多科學(xué)家對(duì)種族主義漫畫提出了可信度,這種漫畫將人類表達(dá)與動(dòng)物行為聯(lián)系起來。

  這些與生俱來的品質(zhì)有助于我們判斷、理解他人,以及傳達(dá)自己的情感。但這也可能會(huì)讓我們誤入歧途。“文獻(xiàn)表明,我們傾向于高估自身的面部識(shí)別能力?!? 達(dá)特茅斯教授Brad Duchaine說?!袄?,人們對(duì)誰看起來值得信賴以及誰不值得做出一致的判斷,但這些判斷似乎并沒有有效地預(yù)測(cè)實(shí)際情況下的可信度?!?/p>本文引用地址:http://butianyuan.cn/article/201901/397079.htm

  而試圖從人們的臉上收集個(gè)人健康狀況同樣復(fù)雜。

  Ian Stephen是澳大利亞悉尼麥考瑞大學(xué)的講師,他使用一種主要的進(jìn)化范式來研究生理學(xué)如何在我們的臉上得到反映。他發(fā)現(xiàn),臉型可以預(yù)測(cè)BMI和血壓等因素。其最有趣的發(fā)現(xiàn)不僅僅是面容,而是著色:研究參與者認(rèn)為白人皮膚色素沉著更黃、更健康。Stephen認(rèn)為這與角蛋白(我們從大量水果和蔬菜中獲得的橙色色素)和含氧血液(由心血管問題消耗的溫暖色調(diào))相對(duì)應(yīng)——這是兩種非常真實(shí)的健康標(biāo)志。

  大多數(shù)這些決定都是在潛意識(shí)里做出的。在《 傲慢與偏見》中,達(dá)西先生與伊麗莎白貝徒步三英里后面色黯淡。但達(dá)西沒有把其吸引力與氧氣血或生殖健康聯(lián)系起來,他只是回應(yīng)他所看到的。雖然這看起來很膚淺,但簡(jiǎn)·奧斯汀的浪漫小說揭示了一個(gè)更深層次的真理:“被認(rèn)為具有吸引力的面孔也被認(rèn)為是健康的。”Stephen說。

  許多進(jìn)化生物學(xué)家認(rèn)為偶爾將身體健康和感知到的美混合在一起是有利的。它至少在理論上幫助動(dòng)物挑選配偶并繁衍后代。但這并不是萬無一失的:在很多方面,美是多種多樣的,此外,關(guān)鍵的是,美受到文化因素的影響。例如,美國人重視瘦身并詆毀肥胖,但瘦弱的人可能是不健康的,肥胖的人則可能非常健康。這些因素已經(jīng)產(chǎn)生了真正的影響:僅僅因?yàn)橥獗?,肥胖者、婦女和有色人種,從工作場(chǎng)所到急診室都受到歧視。

  在許多人眼中,美麗可以阻擋一切。2017年的一項(xiàng)《自然》研究顯示,“男性感知的健康狀況是通過平均性、對(duì)稱性和皮膚黃度來預(yù)測(cè)的?!迸c此同時(shí),女性的健康狀況則“通過女性氣質(zhì)預(yù)測(cè)”。

一本19世紀(jì)關(guān)于面容的書描述了兩種視覺情感。左:完全絕望。 右:憤怒與恐懼混合。

  有些人認(rèn)為借助機(jī)器進(jìn)行面部識(shí)別有可能幫助人類擺脫愚昧。其他人則擔(dān)心這會(huì)把誤解放大到無法控制的程度。在最近發(fā)表在《自然》雜志上的一項(xiàng)研究中,與FDNA有關(guān)的研究人員使用人工智能來識(shí)別兒童臉部照片中的遺傳性疾病。該項(xiàng)目名為DeepGestalt,在17000張圖像的數(shù)據(jù)集上進(jìn)行訓(xùn)練,以識(shí)別200多種綜合癥。

  根據(jù)人們對(duì)技術(shù)的定位,DeepGestalt可能會(huì)激發(fā)一種消沉的希望,或者是一種恐懼。Stephen表示,雖然仍然需要醫(yī)生來解釋結(jié)果,但這種機(jī)器可以提供一種“更安全、更方便”的方法來診斷許多疾病。但是,它的使用伴隨著嚴(yán)重的道德問題。Stephen說:“曾經(jīng)私有化的信息,可能更容易被識(shí)別。公司是否會(huì)開始從你的Facebook個(gè)人資料中提取你的照片,并對(duì)他們之前無法預(yù)知的風(fēng)險(xiǎn)進(jìn)行分析并否認(rèn)你的保險(xiǎn)或進(jìn)行額外收費(fèi)?”

  類似的面部識(shí)別算法引發(fā)了他們自己的隱私問題。2017年,Glaad和人權(quán)倡導(dǎo)團(tuán)體等組織譴責(zé)了創(chuàng)建“ gaydar”的努力。一位評(píng)論家稱其為“算法相當(dāng)于一名13歲的恃強(qiáng)凌弱者?!?/p>

  對(duì)能夠讀取我們思想和感情的人或機(jī)器的恐懼,甚至是那些我們希望隱藏的東西,都是技術(shù)焦慮的基礎(chǔ)部分,載于喬治·奧威爾的小說《1984》中。但在這個(gè)領(lǐng)域,想象力仍遠(yuǎn)遠(yuǎn)超過我們的技術(shù)。

  Feldman Barrett認(rèn)為高技能的情感閱讀是可以實(shí)現(xiàn)的, 但目前在這個(gè)市場(chǎng)上運(yùn)營(yíng)的公司似乎并不具備制造它們的能力。“計(jì)算機(jī)在視覺領(lǐng)域(檢測(cè)行為)發(fā)展地越來越好,不幸的是,(程序員)認(rèn)為檢測(cè)行為意味著檢測(cè)一種情緒?!彼f,“要想取得真正的突破,在某些方面需要改變的不是技術(shù),而是心態(tài)、預(yù)設(shè)?!?/p>


上一頁 1 2 下一頁

關(guān)鍵詞: AI 機(jī)器人

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉