硕士论文研究「AI预测性取向」:化妆等因素并不影响判断
全世界只有3.14 %?的人關注了
數據與算法之美
2017 年,斯坦福大學的一篇《深度學習通過面部識別判斷性取向超越人類》曾引發了極大爭議,其通過 AI 算法僅需「看面相」即可判斷一個人是不是同性戀的方法讓眾人感到一絲恐慌,也讓技術研究者們對于算法的偏見提出了很多意見。
最近,來自南非比勒陀利亞大學的 John Leuner 在自己的碩士論文中再次嘗試了 AI 識別同性戀的方法,并獲得了「更為嚴謹」的結果。
這項技術可以無視人類的服裝、化妝、拍攝角度等變量,實現男性 63%、女性 72% 的準確率。準確率比人類更好,并不再受到受試者種族、國籍的干擾。現在,喬裝打扮也不會讓你變得更 Gay 了。
各種人工智能對于面相的判斷,不知道圖靈若是知道了會怎么想……(圖片來源 The Verge)
與此前斯坦福大學的研究不同,在社交網絡上人們對于這篇新論文的看法也有不少正面評價:其在判斷性取向的時候考慮了人的年齡和種族等其他因素,從而排除了 AI 算法陷入錯誤認知的問題。
當然,對此研究本身,依然存在著質疑。
如 Reddit 用戶 PK_thundr 瀏覽完文章表示,「他們的『5 像素』分類器對高度模糊面部的判斷幾乎和實際面部一樣好。所以,我并不信服從面部圖像預測性取向的結論。」
「機器學習預測性取向」一直是一個較為「敏感」的話題。這篇論文的發布,如同 2017 年斯坦福的研究一樣也在 reddit 上引起了大家廣泛的討論,感興趣的同學可查看 Reddit 原帖:
其實不只是根據面部圖像預測性取向的研究,近年來隨著人工智能的火熱,我們看到了越來越多「匪夷所思」的應用,包括「AI 相面」、「基于面部圖像的犯罪概率判斷」等等……這引發了人們對隱私、研究可靠性的擔憂。對此話題感興趣的讀者,可在此文章下留言探討。
接下來,機器之心編譯介紹了這篇研究論文的相關技術內容,重點介紹了數據集與機器學習模型。
原理
這篇論文遵從前人的思路,試圖探索深度學習觀察人類面部判斷性取向的原理。
Ag¨uera y Arcas 等人對此前斯坦福大學 Yilun Wang&Michal Kosinski 的研究做出了回應,并為他們的發現提供了其它解釋。他們沒有將根據人臉圖像檢測性取向的能力與生物起源聯系起來,而是認為機器學習模型是根據隱藏在顯眼處的表面特征來學習的。通過檢查 W&K 發布的同性戀和異性戀男女的合成圖像,他們注意到以下明顯差異:
合成的異性戀女性面部有眼影,而女同性戀沒有。
男同女同臉部圖像上都有眼鏡,而異性戀者沒有。
直男面部毛發又多又黑。
合成的男同臉部比直男更鮮亮,而直女的臉部比女同的更鮮亮。
發型和化妝對于判斷一個人是否為同性戀雖然有一定的參考價值,但顯然背離了「看面相識別性取向」的原則。這種識別方法明顯存在一定偏見。
模型
為了實現更準確的判斷,研究人員改進了斯坦福大學研究中的計算機視覺模型,以獲得更好的效果。他們提出的模型包含 VGG 和 Face++兩種方法。
其中的一部分使用 VGGFace(一個預訓練的深度學習神經網絡)來提取人臉照片的特征,然后根據這些特征訓練了一個?logistic 回歸模型來預測目標圖像的性取向。
VGGFace 是用來從人臉圖像中識別個體的卷積神經網絡。它是在一百萬張照片上訓練的,這些照片來自 2622 個不同的名人。雖然該神經網絡最初是為了從人臉圖像中識別個體而開發的,但去掉網絡的最后一層之后,我們就能獲得模型用于其最終分類層的面部特征。
這些由深度神經網絡產生的特征對人類來說通常是不可解釋的,但可被視為一張人臉的數字表示。該模型獲得的輸入信息是由 Face++模型提取的面部器官裁剪圖像,這些圖像會按比例縮小為 224×224 像素分辨率。
模型的另一部分就是 Face++(可作為服務訪問的外部模型)來為每張人臉圖像提取面部「標記」。然后利用根據這些標記得出的距離來訓練 logistic 回歸模型,以預測目標圖像的性取向。
這些標記是描述面部特征位置的面部度量。Face++為每張臉返回固定數量的標記點。標記分為幾部分:
圖 1.2:面部形態機器模型用作輸入的面部形態「標記」。
上圖展示了算法對于人類面部器官的識別點,每個器官由十個或更多點組成,整個面部總共有 83 個點。隨后,算法會為每個面部器官建立邏輯回歸分類器,并為整個面部的所有器官創建分類。為了預測每個圖像中個體的性取向,研究人員使用主成分作為自變量和性取向標記作為因變量訓練邏輯回歸模型。
下面重點來了,為了減少深度學習的「偏見」,此研究試圖探索膚色是否會影響計算機對性取向的判斷。為了實現目標,模型會將輸入的面部圖像簡化為 5×5 像素的模糊圖,進而進行邏輯回歸預測,男性和女性分別建模。
數據集
為訓練模型,研究人員總共檢索了 50 萬張照片并建立了數據集。表 4.1 列出了從每個數據源中下載的每種照片的數量。
表 4.1:從每個數據源檢索到的每種照片的數量
本文貢獻
本文對社會心理學領域的貢獻:
本文復制了先前利用機器學習技術根據人臉照片預測性取向的研究。研究表明,根據約會檔案中的照片進行訓練的深度學習分類器和面部形態分類器都能夠預測性取向,而且做得比人類更好。該模型利用了不受種族或國家限制的新數據集。
本文引入了新的機器學習模型,用于測試能否對高度模糊的人臉照片進行性取向預測。結果表明,根據高度模糊的人臉照片中面部和背景的主要顏色信息能夠預測性取向。
研究表明,故意改變一個人的外表以迎合同性戀和異性戀的刻板印象并不會改變由機器學習模型生成的性取向標簽。
研究表明,頭部姿態與性取向無關。
研究表明,不管添加或是去除面部毛發和眼鏡,模型都能預測性取向。
論文:A Replication Study: Machine Learning Models Are Capable of Predicting Sexual Orientation From Facial Images
論文鏈接:https://arxiv.org/abs/1902.10739
論文摘要:
最近的研究使用機器學習方法根據人臉照片來預測一個人的性取向。為了驗證這個結果,我們重新做了其中的兩個模型:一個基于深度神經網絡(DNN),一個是基于面部形態學(FM)。
使用來自約會網站的 20910 張照片組成的全新數據集,確認了兩個模型預測性取向的能力:DNN 預測男性性取向的準確率為 68%,女性 77%;FM 預測男性性取向的準確率為 62%,女性 72%。為了調查亮度、主要顏色這樣的面部特征是否會影響性取向的預測,我們創造了一種基于高度模糊面部圖像的全新模型。這個模型也能夠預測性取向(男性 63% 準確率,女性 72%)。
當主體刻意化妝、戴眼鏡、面部毛發遮擋、變換面部拍照角度時,測試發現模型對這些變化保持穩定。這說明,拍照角度與性取向判斷無關。
同時證明,約會簡照包含豐富的性取向信息,這引起的一個問題是:預測結果有多少是由面部形態決定的,有多少是由衣飾、展示角度和生活方式決定的。新技術的出現讓我們能夠以這種方式檢測性取向,而這可能對同性戀者的隱私與安全產生極大影響。
轉載請在公眾號中,回復“轉載”
版權歸原作者所有,轉載僅供學習使用,不用于任何商業用途
如有侵權請留言聯系刪除,感謝合作。
超模君準備了幾份?數學思維好物
《超模定制筆記本》《數學原來會說謊》
《數學的故事》《簡單微積分》......
免費?送給大家,參與就有機會獲得
總結
以上是生活随笔為你收集整理的硕士论文研究「AI预测性取向」:化妆等因素并不影响判断的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 每日一笑 | 坐牢吗?学编程那种~
- 下一篇: 阿里日均纳税超1.4亿;AI换脸骗过美侦