AI也脸盲 |黑人遭人脸识别技术“误判”概率竟高出白人5至10倍!
? 新智元報(bào)道?
編輯:三石
【新智元導(dǎo)讀】根據(jù)美國政府測試發(fā)現(xiàn)的結(jié)果,即使是表現(xiàn)最佳的人臉識(shí)別系統(tǒng),黑人的錯(cuò)誤識(shí)別率比白人高5至10倍。那么到底是什么原因?qū)е虏煌朔N之間人臉識(shí)別效果差距如此之大呢?又該如何應(yīng)對呢?
法國有一家名叫Idemia的公司,它的人臉識(shí)別軟件已經(jīng)在為美國、澳大利亞和法國的警方提供服務(wù)。
例如,這個(gè)軟件會(huì)根據(jù)海關(guān)或者邊境保護(hù)局的記錄,檢查一些在美國著陸乘客的面部特征。
2017年,FBI一名高級(jí)官員向國會(huì)報(bào)告稱:“面部識(shí)別系統(tǒng)使用Idemia技術(shù)掃描3000萬張照片,有助于‘保護(hù)美國公民’。”
但即便如此,Idemia的算法并不能對所有面孔都做到精準(zhǔn)識(shí)別。
美國國家標(biāo)準(zhǔn)與技術(shù)研究所(National Institute of Standards and Technology,NIST) 7月份的測試結(jié)果顯示,比起白人和黑人男性,系統(tǒng)更容易混淆黑人女性。
NIST用兩張相同的面部照片去測試算法,結(jié)果表明,Idemia的算法錯(cuò)誤匹配白人女性面孔的概率約為萬分之一,而錯(cuò)誤匹配黑人女性面孔的概率卻為千分之一,概率增長了10倍之多。
而在人臉識(shí)別系統(tǒng)中,錯(cuò)誤識(shí)別概率超過萬分之一是一個(gè)評(píng)判標(biāo)準(zhǔn)。
Idemia美國公共安全部門主管Donnie Scott表示:
最先進(jìn)的人臉識(shí)別算法依舊無法應(yīng)對深色皮膚面孔
目前,計(jì)算機(jī)視覺算法在人臉識(shí)別任務(wù)中可以說是達(dá)到了巔峰。
NIST去年表示,在2010年到2018年期間,算法在大型數(shù)據(jù)庫精準(zhǔn)識(shí)別人臉的能力提升了25倍,只有0.2%的概率會(huì)出現(xiàn)無法匹配人臉的情況。這將有助于推動(dòng)在政府、商業(yè)或者手機(jī)等電子產(chǎn)品中的廣泛使用。
但NIST的測試以及其它研究反復(fù)發(fā)現(xiàn),算法在識(shí)別深色皮膚人臉方面的能力是較差的。該機(jī)構(gòu)7月份的報(bào)告涵蓋了50多家公司的代碼測試。
自2017年初以來,NIST已經(jīng)公布了人臉識(shí)別算法的人口統(tǒng)計(jì)學(xué)測試結(jié)果。研究還一致發(fā)現(xiàn),識(shí)別女性的結(jié)果比識(shí)別男性的結(jié)果差一些,造成這種差距的一部分原因是由化妝造成的。
報(bào)告指出,白人男性的錯(cuò)誤匹配率通常比較低,而黑人女性的錯(cuò)誤匹配率通常會(huì)比較高。NIST計(jì)劃在今年秋季詳細(xì)報(bào)告該技術(shù)如何在不同的人口群體中發(fā)揮作用。
NIST的研究被認(rèn)為是評(píng)估人臉識(shí)別算法的黃金標(biāo)準(zhǔn)。那些在人臉識(shí)別做的較好的公司將其成果在市場上進(jìn)行營銷。
許多人臉識(shí)別算法更容易混淆黑人面孔。每個(gè)圖表都代表了NIST測試的不同算法。
國土安全部還發(fā)現(xiàn),深色皮膚對商業(yè)化的人臉識(shí)別任務(wù)也具有挑戰(zhàn)。今年2月,國土安全部的工作人員公布了11個(gè)商用系統(tǒng)的測試結(jié)果。結(jié)果表明,接受測試的系統(tǒng)需要更長的時(shí)間來處理膚色較深的人,而且準(zhǔn)確率也相應(yīng)較低。
政府報(bào)告也稱:亞馬遜、微軟和IBM的算法在深色皮膚上的識(shí)別并不太準(zhǔn)確。
人臉識(shí)別技術(shù)引發(fā)隱私、種族歧視等輿論
這些發(fā)現(xiàn)引發(fā)了一場關(guān)于正確和不正確使用面部識(shí)別的全國性辯論。
一些公民自由倡導(dǎo)者、立法者和政策專家希望政府限制或禁止使用該技術(shù),就像最近在舊金山和其他兩個(gè)城市所做的那樣。
他們擔(dān)心的問題包括隱私風(fēng)險(xiǎn)、公民與州之間的權(quán)力平衡以及結(jié)果中的種族差異。一些批評(píng)人士說,即使人臉識(shí)別對所有面孔都同樣有效,仍然有理由限制這項(xiàng)技術(shù)。
盡管爭論日益激烈,但人臉識(shí)別已經(jīng)深入到許多聯(lián)邦、州和地方政府機(jī)構(gòu)中,并且正在傳播。美國政府在邊境檢查和尋找非法移民等任務(wù)中使用人臉識(shí)別技術(shù)。
今年早些時(shí)候,洛杉磯警察局對一起入室盜竊案做出回應(yīng),這起案件后來升級(jí)為致命的槍擊事件。一名嫌疑犯被逮捕,但另一名逃跑了。警方通過一張?jiān)诰€照片在人臉識(shí)別系統(tǒng)中搜索到了逃犯。
這起案件顯示了人臉識(shí)別系統(tǒng)的價(jià)值,該系統(tǒng)被50多個(gè)縣級(jí)機(jī)構(gòu)使用,并在一個(gè)包含1200多萬張面部照片的數(shù)據(jù)庫中進(jìn)行搜索。警長辦公室的中尉Derek Sabatini說:“如果沒有面部識(shí)別,警察們可能不會(huì)那么快找到嫌疑人?!?/span>
LA County系統(tǒng)是根據(jù)Cognitec公司的人臉匹配算法建立起來的。Cognitec是一家德國公司,和Idemia一樣,為世界各國政府提供人臉識(shí)別服務(wù)。
NIST同樣也對Cognitec算法做了測試,結(jié)果表明,對于女性和有色人種,這些算法的準(zhǔn)確率可能會(huì)更低。在敏感閾值下,NIST測試的兩種Cognitec算法誤判黑人女性的概率大約是前者的五倍。
Cognitec算法開發(fā)總監(jiān)Thorsten Thies承認(rèn)兩者存在差異,但表示很難解釋。他說,其中一個(gè)因素可能是,“與白人相比,給深色皮膚的人拍一張好照片更困難?!?/span>
Sabatini對這種擔(dān)憂進(jìn)行了反駁,即不管潛在的原因是什么,有偏差的算法都可能導(dǎo)致警務(wù)工作中的種族差異。并且表示警方在采取行動(dòng)前會(huì)仔細(xì)檢查建議的匹配項(xiàng),并尋找確鑿的證據(jù)。他說:“我們從2009年開始就在這里使用它,沒有任何問題:沒有訴訟,沒有案例,沒有投訴?!?/span>
其實(shí),對于人臉識(shí)別和種族相關(guān)的新聞并不新鮮。
2012年,美國聯(lián)邦調(diào)查局(FBI)首席面部識(shí)別專家合著了一篇研究論文,發(fā)現(xiàn)商業(yè)面部識(shí)別系統(tǒng)對黑人和女性的準(zhǔn)確率較低。喬治敦大學(xué)的研究人員在2016年一份有影響力的報(bào)告中警告了這個(gè)問題,報(bào)告稱FBI可以搜索大約一半美國人的臉。
隨著人臉識(shí)別變得越來越普遍,政策專家和決策者對技術(shù)的局限性越發(fā)感興趣,這個(gè)問題獲得了新的關(guān)注。MIT研究員、活動(dòng)家Joy Buolamwini的工作尤其具有影響力。
2018年初,Buolamwini和他的人工智能研究員Timnit Gebru指出,微軟和IBM試圖檢測照片中人臉性別的服務(wù),對于膚色白皙的男性來說近乎完美,但對于膚色黝黑的女性來說,失敗的幾率超過20%。
隨后的一項(xiàng)研究發(fā)現(xiàn)亞馬遜服務(wù)也有類似的模式。這些研究沒有測試試圖識(shí)別人類的算法(亞馬遜在一篇激進(jìn)的博客文章中稱其為“誤導(dǎo)”)。
今年5月,在眾議院監(jiān)督和改革委員會(huì)(House Oversight and Reform Committee)舉行的聽證會(huì)上,Buolamwini是一位明星證人。馬里蘭州民主黨主席Elijah Cummings表示,測試結(jié)果中的種族差異加劇了他對警察在2015年巴爾的摩抗議黑人男子Freddie Gray在警察拘留期間死亡時(shí)使用面部識(shí)別技術(shù)的擔(dān)憂。
后來,Jim Jordan(俄亥俄州共和黨人)宣布,國會(huì)需要對政府使用這項(xiàng)技術(shù)“做點(diǎn)什么”。他說:
“如果一個(gè)面部識(shí)別系統(tǒng)犯了錯(cuò)誤,而這些錯(cuò)誤對非洲裔美國人和有色人種的影響更大,那么在我看來,這就直接違反了美國憲法第一修正案和第四修正案賦予的自由。”
為什么面部識(shí)別系統(tǒng)對深色皮膚的識(shí)別效果不同?
Buolamwini告訴國會(huì),許多公司用于測試或訓(xùn)練面部分析系統(tǒng)的數(shù)據(jù)集并不具有代表性。最容易收集大量面孔的地方是網(wǎng)絡(luò),那里的內(nèi)容偏向白人、男性和西方人。
根據(jù)IBM的一份評(píng)論,在學(xué)術(shù)研究中引用最多的三種面部圖像收集中,81%或更多的人膚色較淺。
領(lǐng)導(dǎo)NIST測試的Patrick Grother是人臉識(shí)別領(lǐng)域廣受尊敬的人物,他表示,可能還有其他原因?qū)е掠猩つw的識(shí)別效果較差。
一個(gè)是照片質(zhì)量。從彩色膠片開始到數(shù)字時(shí)代,攝影技術(shù)和技術(shù)已經(jīng)針對較淺顏色的皮膚進(jìn)行了優(yōu)化。
在11月的一次會(huì)議上,他還提出了一個(gè)更具挑釁性的假設(shè):從統(tǒng)計(jì)數(shù)據(jù)上看,黑人的臉比白人的臉更相似。他說:“你可能會(huì)猜測,這與人性有關(guān)。不同的人口群體可能在我們基因的表型表達(dá)上存在差異?!?/span>
佛羅里達(dá)理工學(xué)院(Florida Institute of Technology)副教授Michael King則不那么肯定。King此前曾為美國情報(bào)機(jī)構(gòu)管理包括人臉識(shí)別在內(nèi)的研究項(xiàng)目?!斑@是我目前不準(zhǔn)備討論的問題。我們的研究還遠(yuǎn)遠(yuǎn)不夠,”他說。
King與FIT和圣母大學(xué)的同事們的最新研究結(jié)果表明,解釋人臉識(shí)別算法中人口統(tǒng)計(jì)學(xué)上的不一致性,以及如何解決這一問題,是一項(xiàng)挑戰(zhàn)。
他們的研究測試了4種面部識(shí)別算法(兩種商業(yè)的和兩種開源的),共計(jì)53000張臉部照片。
在黑人面孔中,錯(cuò)誤地匹配兩個(gè)人的情況更為常見,而在白人面孔中,沒有發(fā)現(xiàn)匹配面孔的情況更為常見。黑人的大頭照中有很大一部分不符合身份證照片的標(biāo)準(zhǔn),但僅憑這一點(diǎn)無法解釋這種扭曲的表現(xiàn)。
研究人員確實(shí)發(fā)現(xiàn),他們可以讓算法對黑人和白人“一視同仁”,但前提是對兩組人使用不同的敏感度設(shè)置。
這在實(shí)驗(yàn)室之外是不太可能實(shí)現(xiàn)的,因?yàn)橐髠商交蜻吘程毓椴煌娜巳哼x擇不同的環(huán)境會(huì)帶來歧視風(fēng)險(xiǎn),并可能引發(fā)指控種族定性的訴訟。
當(dāng)King和其他人在實(shí)驗(yàn)室里仔細(xì)研究算法時(shí),圍繞人臉識(shí)別的政治斗爭正在迅速展開。兩黨國會(huì)議員都承諾采取行動(dòng)控制這項(xiàng)技術(shù),理由是擔(dān)心少數(shù)族裔的準(zhǔn)確性。周二,奧克蘭成為繼馬薩諸塞州薩默維爾和舊金山之后,自5月以來第三個(gè)禁止其機(jī)構(gòu)使用該技術(shù)的美國城市。
King表示:
“讓這些系統(tǒng)對不同的人口統(tǒng)計(jì)數(shù)據(jù)同樣有效,甚至理解這是否可能實(shí)現(xiàn),或?yàn)槭裁纯赡軐?shí)現(xiàn),這確實(shí)是一個(gè)長期目標(biāo)?!?/span>
原文鏈接:
https://www.wired.com/story/best-algorithms-struggle-recognize-black-faces-equally/?verso=true
總結(jié)
以上是生活随笔為你收集整理的AI也脸盲 |黑人遭人脸识别技术“误判”概率竟高出白人5至10倍!的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 推荐一位BAT数据大神!(附联系方式)
- 下一篇: 李宏毅机器学习完整笔记发布,AI界「最热