GPT“生成式钓鱼邮件”泛滥,研究人员建议“使用 AI 对付 AI”
12 月 27 日消息,安全公司 Abnormal 日前發布報告,聲稱如今“AI 釣魚郵件”愈發泛濫,許多黑客利用各種模型批量創建釣魚郵件,之后使用腳本群發相關郵件,從而實施“高效率”網絡詐騙活動。
該公司研究人員舉例 WormGPT、FraudGPT 等“專為網絡犯罪而生”的惡意 AI 工具,聲稱當下黑客已經將生成式 AI 融入到攻擊策略中,因此用戶也需要“以相同的方式做出反擊”,利用 AI 過濾“可能由 AI 創建的釣魚郵件”。
查詢安全報告得知,傳統的釣魚郵件通常使用相同的域名,正文擁有固定模板格式,整體郵件內容和風格較為統一,因此相當容易被安全軟件標記攔截。而黑客利用 AI 生成的釣魚郵件乍眼看“相當獨特”,甚至“每一篇都不一樣”,因此難以被傳統安全軟件乃至人類所察覺。
據悉,研究人員在報告中介紹了一款名為 Giant Language Model Test Room(GLTR)的 AI 檢測工具,該工具利用了“相關釣魚郵件內容主要采用‘預測式’調用‘特定高概率單詞’”的特點,從而精確識別 AI 釣魚郵件。
研究人員聲稱,即使黑客讓 AI“使用更為正式的措辭”創建郵件,但 GLTR 工具依然可以判斷郵件中哪些部分“高概率由人工智能生成”。不過報告中同時指出,相關檢測手法存在“誤殺率”,100% 判斷郵件內容是否由 AI 創建“幾乎是不可能的”。
研究人員同時提到,AI 編寫的內容中出現“語法和拼寫錯誤”的概率相對人類反而更少,因此受害者更容易上當,當下“使用 AI 對付 AI”的方案反而更加有效。
相關閱讀:
《黑客展示惡意 AI 工具 FraudGPT,可自動生成多種網絡攻擊代碼》
《黑客展示“沒有道德限制”的 WormGPT 聊天機器人:可自動生成木馬、釣魚鏈接》
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節省甄選時間,結果僅供參考,所有文章均包含本聲明。
總結
以上是生活随笔為你收集整理的GPT“生成式钓鱼邮件”泛滥,研究人员建议“使用 AI 对付 AI”的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: LG 公布智能家居 AI 机器人:支持控
- 下一篇: 纽约时报以版权为由起诉微软和 OpenA