AI软件克隆你的声音,全球诈骗案件已屡次得逞!
文/硅谷洞察
來源:硅谷洞察(ID:guigudiyixian)
在 2 月 28 號剛于舊金山結束的 RSA 大會上,一家名為 Pindrop 的專門檢測語音詐騙的初創公司再次向業內發出警告:網絡詐騙份子已經開始借助 AI 軟件克隆聲音進行詐騙了!
(Pindrop 的 CEO(右)和 CTO (左),圖片來自網絡)
Pindrop 的 CEO Vijay Balasubramaniyan 表示:“Pindrop 在過去一年中調查了大約十二起類似的案件,都是欺詐者使用 AI 軟件“克隆”某人的聲音以進行詐騙。同時,我們還看到了 Deepfake 音頻作為針對公眾人物的工具出現。如果你是家公司的 CEO 或者你在 YouTube 上有很多視頻,騙子就極有可能用它來合成你的聲音。”
并且,雖然 Pindrop 只看到了少數這樣的案件,但涉案金額很高。Pindrop 估算涉及的詐騙金額可能高達 1700 萬美元。
(圖片來自網絡)
來自硅谷的警告消息又一次將 AI 的安全性問題帶到了輿論的風口浪尖。毫無疑問,自從 AI 成為全球技術發展的主流以來,DeepFake 的問題就一直是人們關心的重點。在之前的文章中,小探深度討論了關于人臉識別的安全問題。而今天我們要討論的 AI 語音合成的問題,則可能比人臉識別更加危險。
AI 聲音合成,一面“天使”一面“魔鬼”
語音合成技術現在已經非常成熟了。例如高德導航里的各種明星語音包,“林志玲為您導航祝您好心情”、“郭德綱前方有落石車碎人心碎”、“你鎮定一下羅永浩要開始導航了”,基本上能夠達到以假亂真的效果。大部分時候用戶也分不出來到底是明星自己錄的,還是合成的語音。當然這種場景中,語音合成只是為了提升用戶體驗做的一個小功能。不僅沒有對用戶造成損失,反而讓用戶開車的時候擁有更好的體驗。
(高德地圖的明星導航語音包,圖片來自網絡)
但是下面這個故事就不是這樣了。2018 年 Charlie Warzel,Buzzfeed 的科技記者,受了前密西根大學社交媒體責任中心 CTO Aviv Ovadya 言論的影響,做了一件想想都非常后怕的事情。他使用 AI 合成軟件模仿了自己的聲音,然后打電話給他媽媽,結果他媽媽愣是沒聽出來。世界上最熟悉你自己聲音的人是誰?可能不是你自己,因為你自己聽到的聲音和別人聽到的是有區別的。最熟悉你聲音肯定是你的母親。
(圖片來自網絡)
既然身邊最熟悉的人都被這樣“偽裝”騙了,那只要使用這種軟件不就擁有了“變身”的超能力了嗎?
事實上,利用 AI 語音合成冒充熟人進行電信詐騙的案例這幾年時常發生,并且涉及金額都非常的巨大。
根據報道,英國某能源公司高管在一個小時之內通過匈牙利供應商向一詐騙犯轉賬 24 萬美元,約 175 萬元人民幣,僅僅是因為詐騙犯通過 AI 技術仿造了其母公司 CEO 的聲音。該高管表示,在整個通話過程中,老板輕微的德國口音都展現得淋漓盡致,該高管完全沒有任何的懷疑,直到被要求再次轉賬時才發覺了事件異常。
在報案調查后,警方只能發現該筆轉賬流動到了墨西哥等地區,但是具體嫌疑犯的身份始終無法確定。這個案件帶來的損失目前只能由保險公司承擔。這位受害者后來在一封電子郵件中寫道,雖然“老板”的要求相當奇怪,但聲音如此逼真,他覺得自己別無選擇,只能服從。
美國網絡安全公司 Symantec 的研究人員表示,他們發現至少有三起公司高管的聲音被人模仿以用于電信詐騙。雖然 Symantec 拒絕透露這些受害公司的名稱,也不愿透露上述英國能源公司是否是其中之一,但它指出,其中一起案件的損失總計達數百萬美元。
(Symabtec 公司大樓,圖片來自網絡)
雖然有種種風險,但技術的發展一點也沒有慢下來。目前,許多硅谷巨頭和人工智能初創企業都在開發這種語音合成軟件,用以模仿人的聲音節奏和語調,并被用來制作令人信服的演講。
(Lyrebird 官網)
幾個月前,Resemble 團隊發布了一個名為 Resemblyzer 的開源工具,該工具使用人工智能和機器學習來通過獲取語音樣本的高級表示并預測它們是真實的還是生成的來檢測深度偽造。而在 AI 語音合成屆早已成名已久的 Lyrebird,其開發出的 AI 合成軟件更是可以在合成語音中模擬出說話人的感情。
AI 技術被濫用,它的工作原理是什么?
無數的研究表明,重現人們講話的韻律只需要一個小的數據集。像 Resemble 和 Lyrebird 這樣的商業系統僅需要幾分鐘的音頻樣本,而百度最新的 Deep Voice 實現等復雜的模型可以從 3.7 秒的樣本中復制語音。
斯坦福大學網絡政策中心研究員、曾任奧巴馬和特朗普政府時期白宮網絡安全政策高級主管的 Andrew Grotto(安德魯·格羅托)表示:“罪犯將使用任何能讓他們以最低成本實現目標的工具。也許這是一項在 10 年前聽起來很新奇的技術,但是現在任何有想法的非專業罪犯都可以使用。”
(圖片來自網絡)
目前市面上的 AI 語音合成軟件的工作原理是將一個人的聲音分解成不同的組成部分,比如音軌或音節,然后將這些組成部分重新排列,形成具有相似語音模式、音調和音色的新語音。除了借助這種新技術,騙子們還依賴于最常見的詐騙技巧來提高他們的效率,利用時間壓力,比如臨近的截止日期,或者社會壓力,比如安撫老板的愿望,來讓受害人打消任何疑慮。在某些情況下,犯罪分子會瞄準公司會計或財務的負責人,因為他們知道這些人有能力立即匯款。
(Pindrop 的 CEO 演示如何合成公眾人物的視頻截圖)
除了進行詐騙,DeepFake 音頻還存在向公眾傳遞負面信息的風險。RSA 大會演講現場,Pindrop 的 CEO 向公眾演示了一款合成公眾人物聲音的 AI 系統,這項技術通過在網上搜索特朗普之前的錄音來模仿他的聲音,耗時不到一分鐘,并用美國總統特朗普的聲音說了一些笑話。如果這項技術被用于仿造領導人物的聲音,并用到犯罪事件中,無疑可能非常危險,甚至給國家安全帶來危害。
AI 聲音合成如此猖獗,應該如何防范?
雖然風險重重,但語音模擬技術的發展勢不可擋。例如,Google 已經為自動識別 DeepFake 語音的研究項目提供了資金和資源的幫助。但 Google 也開發了一些世界上最具說服力的語音人工智能,包括它的 Duplex 服務,它可以用電腦生成的栩栩如生的聲音,打電話給餐廳預定座位。
(Google 語音助手,圖片來自網絡)
卡內基國際和平基金會(Carnegie Endowment for International Peace)硅谷辦公室主任 Charlotte Stanton 則提醒業界:“在商業領域,人們有很強的的意愿想要制造出好的技術產品,但一定要平衡,避免它被用于非法途徑。所以,研究人員在研發像 AI 語音合成技術這樣強大的技術時需要更加謹慎,很明顯,AI 語音合成已經到了可以被濫用的地步。”
幸運的是,人工智能開發人員正在努力構建能夠檢測和打擊 Deepfake 音頻的解決方案。例如,Pindrop 公司已經開發出一種人工智能算法,可以從 DeepFake 的音軌中辨別真實的語言。它是通過檢查說話時單詞的實際發音,以及這些發音是否與真實人類的說話模式相匹配,因為人類的聲音無法像機器偽裝那樣標準和快速。
Pindrop 還預測到,也許有一天音頻安全服務會像數據安全服務一樣有巨大的市場。該公司 CEO 表示:“會有一些公司建立檢測這些安全漏洞的機制。如果網上出現了偽造的音頻,那么這個機制就會開始保護你的聲音數據。”
(Pindrop CEOVijay Balasubramaniyan,圖片來自網絡)
除了 Pindrop 等小公司。硅谷科技巨頭也積極的致力于尋找檢測 Deepfake 音頻的方案。例如,谷歌在去年年初與 GNI 合作,發布了一系列合成語音,其中包含由其深入學習的文本到語音(TTS)模型所說的數千個短語,來自英文報紙文章 68 種不同的合成語音,并涵蓋了各種區域口音。該數據庫提供給了 2019 ASVspoof 挑戰的參與者使用,該競賽旨在開發針對假語音的對策,特別是可以創建區分真實和計算機生成的語音的系統。
同時,DeepFake 音頻的潛在威脅也可能會改變用戶的行為,使用戶在向互聯網上傳聲音時更加謹慎。Pindrop 調查的詐騙案例中就有這樣一位受害者,他幾乎沒有在任何社交平臺上公開過自己的聲音,僅僅是因為召集員工開會時的講話被竊取,就成為了犯罪分子的目標。這樣的案例不禁會讓人聯想:“既然這么謹慎的人都會存在被詐騙的風險,那么我們干脆就不要在公眾平臺上表露自己的任何生理特征,包括聲音和長相。這實在太恐怖了!”
(圖片來自網絡)
不敢想象,如果我們的公眾社交平臺上面看不到任何超出文字以外的更生動的表達,那么幾十年來的科技和信息發展不就白費了嗎?這無疑是對多年來為人類科技文明進化做出貢獻的科技工作者的侮辱。
小探相信,隨著 AI 不斷的發展,我們所面對的 DeepFake 威脅將會越來越多。因此,無論是視頻或音頻,建立一個完善的安全審核機制是非常有必要的!
關于預防 DeepFake 的安全機制,你還有什么想法嗎?歡迎來評論區留言哦!
參考鏈接:
https://www.pcmag.com/news/is-ai-enabled-voice-cloning-the-next-big-security-scam
https://9to5google.com/2019/01/31/google-deep-fake-audio-detection/
https://www.washingtonpost.com/technology/2019/09/04/an-artificial-intelligence-first-voice-mimicking-software-reportedly-used-major-theft/
總結
以上是生活随笔為你收集整理的AI软件克隆你的声音,全球诈骗案件已屡次得逞!的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 《走着走着就散了》歌词完整版,《走着走着
- 下一篇: 昆仑万维拟42亿转让Grindr 百度前