新聞中心

EEPW首頁 > 智能計(jì)算 > 業(yè)界動態(tài) > 皮膚不白,會遭到人臉識別技術(shù)的 “歧視”?

皮膚不白,會遭到人臉識別技術(shù)的 “歧視”?

作者: 時(shí)間:2018-02-22 來源:騰訊科技 收藏

  《紐約時(shí)報(bào)》近日發(fā)表文章,稱技術(shù)的發(fā)展近來可謂突飛猛進(jìn),目前已經(jīng)有一些商業(yè)軟件可以用來識別照片中人物的性別,當(dāng)照片中的人是白人時(shí),99%的情況下識別結(jié)果都是正確的,但如果照片中是黑人,錯誤率就比較高了。以下為原文內(nèi)容:

本文引用地址:http://butianyuan.cn/article/201802/375869.htm

  技術(shù)在識別不同種族和性別的人臉時(shí),效果有多大的不同呢?一項(xiàng)新的研究對此進(jìn)行了測量,結(jié)果表明,膚色越黑,識別率就越低。在識別黑皮膚女性時(shí),它的錯誤率幾乎達(dá)到了35%。

  MIT媒體實(shí)驗(yàn)室的研究員喬伊o布蘭威尼(Joy Buolamwini)進(jìn)行的這項(xiàng)研究,顯示了現(xiàn)實(shí)世界中的一些偏見已經(jīng)滲透到了人工智能()領(lǐng)域,因?yàn)?a class="contentlabel" href="http://butianyuan.cn/news/listbylabel/label/人臉識別">人臉識別技術(shù)就是建立在之上的。

  在計(jì)算機(jī)視覺技術(shù)中,顏色很重要

  使用微軟、IBM和Face ++的人臉識別算法在識別黑人女性時(shí),錯誤率高于識別白人男性。

  

皮膚不白,會遭到人臉識別技術(shù)的 “歧視”?

  在一組385張膚色較白的男性照片中,性別判斷的錯誤率為1%。

  

皮膚不白,會遭到人臉識別技術(shù)的 “歧視”?

  在一組296張膚色較白的女性照片中,性別判斷的錯誤率為7%。

  

皮膚不白,會遭到人臉識別技術(shù)的 “歧視”?

  在一組318張膚色較黑的男性照片中,性別判斷的錯誤率為12%。

  

皮膚不白,會遭到人臉識別技術(shù)的 “歧視”?

  在一組271張膚色較黑的女性照片中,性別判斷的錯誤率為35%。

  在現(xiàn)代技術(shù)中,數(shù)據(jù)是關(guān)鍵。 用來訓(xùn)練AI的數(shù)據(jù)有多好,AI效果就會有多好。如果訓(xùn)練數(shù)據(jù)中的白人男性比黑人女性多,那么它識別黑人女性的能力就比較差。

  另一項(xiàng)研究報(bào)告顯示,在一種獲得廣泛使用的人臉識別數(shù)據(jù)集中,75%以上的圖像都是男性,80%以上是白人。

  因此這項(xiàng)新的研究就提出了一個問題:當(dāng)AI獲得的投資額和采用量日益增長時(shí),AI的公平性和問責(zé)性又該怎么保證呢?

  今天,商業(yè)公司正以各種方式部署人臉識別軟件,其中就包括根據(jù)社交媒體上的資料圖片來對產(chǎn)品進(jìn)行精準(zhǔn)宣傳。但是,一些公司也正在嘗試把人臉識別和其他AI技術(shù)納入到一些自動決策過程中,比如招聘和貸款決策。

  喬治城大學(xué)法學(xué)院的研究人員估計(jì),執(zhí)法部門的人臉識別網(wǎng)絡(luò)涵蓋了1.17億美國成年人的數(shù)據(jù)(警方拍攝的罪犯或嫌疑犯的面部照片),而非洲裔美國人最有可能被挑出來,因?yàn)樗麄冊谶@個數(shù)據(jù)庫中占的比例格外高。

  人臉識別技術(shù)受到的監(jiān)管還很少

  猶他大學(xué)計(jì)算機(jī)科學(xué)教授Suresh Venkatasubramanian說:“現(xiàn)在是時(shí)候了,我們要認(rèn)真研究AI系統(tǒng)的工作方式和問題,要從社會角度向它們問責(zé)。”

  之前已經(jīng)有一些計(jì)算機(jī)視覺技術(shù)犯錯的例子,顯示存在著歧視。例如在2015年,谷歌的圖像識別照片app把非洲裔美國人標(biāo)記為“大猩猩”,后來谷歌為此道了歉。

  哈弗福德學(xué)院的計(jì)算機(jī)科學(xué)家索列爾o弗里德勒(Sorelle Friedler)說,專家們早就懷疑人臉識別軟件對不同人群的效果不同。

  “但這是我所知道的第一個顯示存在這種不同的研究,”弗里德勒說。

  28歲的布蘭威尼是非裔美國計(jì)算機(jī)科學(xué)家,曾經(jīng)歷過人臉識別偏見。她在喬治亞理工學(xué)院就讀本科時(shí),人臉識別技術(shù)對她的白人朋友們來說效果很好,但是卻無法識別出她的臉。她當(dāng)時(shí)覺得這個缺陷在不久之后就會修復(fù)。

  但是幾年后,當(dāng)她進(jìn)入MIT媒體實(shí)驗(yàn)室時(shí),又再次遇到了這個問題——只有當(dāng)她戴上白色面具后,軟件才能將她的臉識別出來。

  那時(shí),人臉識別軟件正在日益走出實(shí)驗(yàn)室,進(jìn)入主流社會。

  “這是個很嚴(yán)肅的問題,”她回憶說。 “是時(shí)候做點(diǎn)事情了。”

  于是她將注意力轉(zhuǎn)向與數(shù)字技術(shù)中的偏見作斗爭。布蘭威尼現(xiàn)在在讀博,作為羅德學(xué)者和富布賴特研究員,她倡導(dǎo)“算法問責(zé)制”,致力于讓自動化決策變得更加透明、有解釋力,以及公平。

  她在TED上關(guān)于“編碼偏見”的演講視頻瀏覽量已經(jīng)超過94萬次,她還創(chuàng)立了 “算法正義聯(lián)盟”,這個項(xiàng)目旨在增進(jìn)人們對這個問題的認(rèn)識。

  對三家公司人臉識別軟件進(jìn)行的實(shí)驗(yàn)

  布蘭威尼將在本月一個會議上介紹一篇最新發(fā)表的論文。她為這篇論文研究了微軟、IBM和中國曠視科技這三家公司的人臉識別系統(tǒng)的性能,對它們識別不同膚色用戶的性別的效果進(jìn)行了衡量。她之所以選擇這些公司,是因?yàn)樗鼈兊娜四樂治鲕浖峁┝诵詣e判斷功能,并且它們的代碼已經(jīng)公開發(fā)布,可以用來測試。

  她發(fā)現(xiàn),這三家公司軟件的識別效果有待提高。

  布蘭威尼為該測試建立了一個數(shù)據(jù)集,共有1270張人臉,使用的是女議員較多的國家的議員面部圖像,包括三個以黑皮膚為主的非洲國家,以及三個以白皮膚為主的北歐國家。

  然后她根據(jù)皮膚科醫(yī)生使用的 “六點(diǎn)標(biāo)志體系”對非洲和北歐的這些人臉資料進(jìn)行評分,對皮膚進(jìn)行分類。相對于種族分類,醫(yī)學(xué)分類更加客觀和準(zhǔn)確。

  她再對這些人臉圖像進(jìn)行性別和膚色上的取舍,然后使用三家公司的軟件來識別它們。微軟識別黑皮膚女性的錯誤率是21%,而IBM和Megvii的錯誤率則接近35%。三家公司在識別白皮膚男性時(shí)的錯誤率都低于1%。

  布蘭威尼發(fā)布這項(xiàng)研究的成果之后。 IBM發(fā)表聲明說,該公司已經(jīng)穩(wěn)步改善了人臉分析軟件,鄭重致力于“不帶偏見”和“透明度”。IBM表示將在本月推出的軟件升級版在識別膚色較深的女性時(shí),精確度會提高近10倍。

  微軟則表示它已經(jīng)“已經(jīng)采取措施來提高人臉識別技術(shù)的準(zhǔn)確性”,并且正在投入資源,研究如何“識別、理解和消除偏見”。

  布蘭威尼說,曠視科技的Face ++軟件廣泛應(yīng)用于中國的在線支付和網(wǎng)約車服務(wù),但該公司沒有回復(fù)置評請求。

  布蘭威尼發(fā)布了她的數(shù)據(jù)集,供其他人使用。她稱自己的研究是“解決方案的起點(diǎn),基本上是第一步”。

  布蘭威尼還采取了進(jìn)一步的行動,她與IEEE(一家大型計(jì)算機(jī)專業(yè)組織)合作,成立了一個團(tuán)隊(duì),為人臉分析軟件制定問責(zé)制和透明度標(biāo)準(zhǔn)。

  她還定期與其他關(guān)注AI影響的學(xué)者、公共政策組織和慈善機(jī)構(gòu)會面。福特基金會主席達(dá)倫o沃克(Darren Walker)表示,這種新技術(shù)可能是一個“機(jī)會平臺”,但如果它復(fù)制并放大了過去的偏見和歧視,就發(fā)揮不了作用。

  沃克說:“數(shù)字世界正在進(jìn)行一場公平、包容和正義之戰(zhàn)。”



關(guān)鍵詞: 人臉識別 AI

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉