丧心病狂!这些人利用AI声音冒充亲人诈骗1100万美元
電信詐騙的套路大家都很熟悉,一般來說,我們可以輕易地分辨出對方是什么來頭。不過,正所謂“道高一尺魔高一丈”,有些詐騙分子已經開始利用AI技術進行犯罪。據外媒報道,目前,AI語音生成軟件可以讓騙子模仿親人的聲音,詐騙者利用AI聲音冒充親人竊取了大量錢財,光是在2022年,這些假冒行為導致人們在2022年被騙走1100萬美元,而且老年人占目標人群的大多數。
電信詐騙
近段時間以來,人工智能一直是科技圈的中心話題,因為微軟在其產品中注入ChatGPT,而谷歌則通過推出自己的人工智能產品來跟上潮流。雖然人工智能有潛力做一些讓人令人印象深刻的事情,比如根據一行文本生成圖像,但這項幾乎不受監管的技術的更多缺點也開始浮現出來。最新的例子是,人工智能語音發生器被用來騙取人們的錢財。
人工智能
人工智能語音生成軟件一直受到業界關注,最開始,這種軟件需要幾句話才能令人信服地再現揚聲器的聲音和語氣。現在,該技術已經發展到只需幾秒鐘的對話就足以準確模仿某人的程度。
根據外媒公布的報告,數以千計的受害者聲稱他們被冒充親人的頂替者所欺騙。這類冒名頂替詐騙已成為美國第二大熱門的欺詐類型,2022年提交的案件超過36000起。FTC官員進一步表示,在這36000起案件中,超過5000名受害者通過電話被騙走錢財,損失總額達1100萬美元。
和其他地方一樣,這些詐騙者主要針對老年人。這并不奇怪,因為在涉及金融詐騙時,老年人是最脆弱的群體之一。
總結
以上是生活随笔為你收集整理的丧心病狂!这些人利用AI声音冒充亲人诈骗1100万美元的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 女子抹护手霜摸UGG靴子被要求买下:双方
- 下一篇: 2023 福布斯中国杰出商界女性榜发布: