美五大科技巨头语音识别系统被曝存偏见 黑人语音误识率比白人高1倍
圖1:研究人員表示,亞馬遜智能音箱 Echo 中的語音識別系統存在種族偏見
騰訊科技訊,3 月 24 日消息,據外媒報道,自從 iPhone 誕生以來,我們就可以通過口述的形式發送短信。把亞馬遜搭載智能助手 Alexa 的智能音箱放在咖啡桌上,我們就可以從房間的任何地方點歌。與其他設備相比,它們可能更深入地理解某些聲音。
然而最新研究顯示,來自美國五大科技公司——亞馬遜、蘋果、谷歌、IBM 以及微軟的語音識別系統,在黑人用戶中的識別錯誤要比在白人用戶多出近倍。
斯坦福大學研究人員得出結論稱,這些系統在白人中錯誤識別單詞的可能性約為 19%。在黑人中,錯誤率躍升至 35%。其中,大約2% 的白人音頻片段被這些系統認為是不可讀的。而在黑人中,這各比例上升到 20%。
這項研究采用了一種異常全面的方法來衡量語音識別系統中的偏差,為人工智能技術迅速進入日常生活提供了另一個警示信號。
其他研究表明,隨著面部識別系統進入警察部門和其他政府機構,在試圖識別女性和有色人種時,它們的準確性可能會大大降低。單獨的測試已經發現了“聊天機器人”、翻譯服務和其他旨在處理和模仿書面或口頭語言的系統中,都存在性別歧視和種族歧視行為。
紐約大學研究新技術中的偏見和歧視的統計學教授拉維·史洛夫(Ravi Shroff)說:“我不明白為什么在這些技術發布之前,這些公司沒有進行更多的盡職調查。我不明白為什么這些問題總是層出不窮。”
所有這些系統都是通過分析大量數據來學習的。例如,面部識別系統通過識別數千張面孔的數字圖像中的模式來學習。
在許多情況下,這些系統模仿了他們在數據中發現的偏見,類似于孩子從父母那里染上的“壞習慣”。例如,聊天機器人通過分析大量的人類對話來學習。如果這種對話將女性與家務聯系在一起,將男性與首席執行官的工作聯系起來,那么聊天機器人也會這樣做。
斯坦福大學的研究表明,領先的語音識別系統可能存在缺陷,因為這些公司在培訓技術時使用的數據并沒有盡可能多樣化。這些系統的任務主要是從白人那里學習,而黑人參與相對較少。
參與這項研究的斯坦福大學研究人員之一、專門研究非裔美國人語音的約翰·里克福德(John Rickford)說:“這可能是五家最大的語音識別公司,但他們都在犯同樣的錯誤。我們的假設是,這些公司很好地代表了所有種族,但事實并非如此。”
圖2:蘋果負責軟件工程的高級副總裁克雷格·費德里吉(Craig Federighi)在 2018 年的一次會議上談到了 Siri
這項研究測試了來自蘋果、亞馬遜、谷歌、IBM 和微軟五大科技巨頭公開可用的工具,任何人都可以用它們來構建語音識別服務。這些工具不一定是蘋果用來構建 Siri 的工具,或者亞馬遜用來構建 Alexa 的工具,但它們可能會與 Siri 和 Alexa 等服務共享底層技術和實踐。
每種工具都在去年 5 月底和 6 月初進行了測試,現在它們的操作方式可能會有所不同。研究還指出,在測試這些工具時,蘋果工具的設置與其他工具不同,需要些額外的工程才能進行測試。
蘋果和微軟拒絕對這項研究發表評論。亞馬遜的一位女發言人指出,該公司在一個網頁上表示,它正在不斷改進其語音識別服務。IBM 沒有回復記者的置評請求。
谷歌發言人賈斯汀·伯爾(Justin Burr)表示,該公司致力于提高準確性。他說:“幾年來,我們一直致力于準確識別語音變體的挑戰,并將繼續這樣做。”
研究人員使用這些系統對 42 名白人和 73 名黑人進行了采訪。然后,他們將每組的結果進行了比較。結果顯示,與白人相比,黑人語音的錯誤識別率明顯更高。
表現最好的系統來自微軟,它錯誤識別了大約 15% 的白人音頻和 27% 的黑人音頻。與此同時,蘋果的系統是表現最差的,在白人和黑人的情況下,分別有 23% 和 45% 的情況識別失敗。
這些黑人測試者來自美國北卡羅來納州東部一個以非洲裔美國人為主的農村社區,那里是紐約西部和華盛頓特區的一個中型城市,他們用語言學家所說的“非裔美國人地道英語”說話,這是一種有時由城市地區和美國其他地區的非裔美國人說的英語。
白人測試者則來自美國加州,包括來自該州首府薩克拉門托,另一些人來自大約 500 公里外的一個以白人為主的農村地區。
研究發現,當比較黑人和白人說出的相同短語時,“種族差距”同樣大。這表明問題出在訓練系統識別聲音的方式上。根據研究人員的說法,這些公司似乎沒有對代表非裔美國人白話英語的足夠數據進行培訓。
圖3:各種消費產品都在使用語音識別技術,比如谷歌智能助手 Google Assistant
斯坦福大學工程學教授、參與這項研究的莎拉德·戈爾(Sharad Goel)說:“結果并不是孤立的,問題也并不局限于某一家特定的公司。我們在所有 5 家公司的語音識別系統中都看到了相似的模式。”
這些公司都已經意識到了這個問題。例如,2014 年,谷歌研究人員發表了一篇論文,描述了早期語音識別中存在的偏見問題。
去年 11 月份,前谷歌首席執行官兼董事長埃里克·施密特(Eric Schmidt)在斯坦福大學發表了演講,主題就是“合乎道德的”人工智能。他說,谷歌和硅谷的其他公司都很清楚,人工智能系統的構建方式需要修正。
施密特當時表示:“我們知道這些數據存在偏見,你不需要把這當作一個新的事實來大喊大叫。人類都有偏見,我們的系統也是如此。問題是:我們該怎么做?”
像谷歌這樣的公司可能很難收集到正確的數據,而且他們可能沒有足夠的動力來收集這些數據。馬薩諸塞大學阿默斯特分校專門研究人工智能技術的教授布倫丹·奧康納(Brendan O‘Connor)說:“這個問題很難解決,這些數據很難收集。我們正在打一場硬仗。”
這些公司可能面臨“先有雞還是先有蛋”的問題。如果他們的服務主要由白人使用,他們將難以收集可以為黑人服務的數據。如果他們在收集這些數據時遇到困難,這些服務將繼續主要由白人使用。
華盛頓大學教授諾亞·史密斯(Noah Smith)說:“當你開始思考這些反饋循環時,你會覺得有點兒可怕。這是一個令人感到十分擔憂的問題。”(騰訊科技審校/金鹿)
總結
以上是生活随笔為你收集整理的美五大科技巨头语音识别系统被曝存偏见 黑人语音误识率比白人高1倍的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 扩容效率提升10倍,腾讯云发布一站式资源
- 下一篇: 受新冠病毒疫情影响 SpaceX无限期推