谣言检测文献阅读三—The Future of False Information Detection on Social Media:New Perspectives and Trends
系列文章目錄
文章目錄
- 系列文章目錄
- 前言
- 1、Introduction
- 2、相關工作
- 2.1 基于內容的方法
- 2.2 基于社會背景的方法
- 2.4 基于深度學習的方法
- 2.5 Existing Detection Tools
- 3、虛假信息檢測的新趨勢
- 3.1 早期檢測
- 4 基于人群智能的檢測
- 4.1 虛假信息中的群體情報
- 4.2 隱式眾智模型
- 4.3混合人機模型
- 5.未決問題和未來方向
- 6 結論
前言
文章:The Future of False Information Detection on Social Media:New Perspectives and Trends
發布期刊:ACM Computing Surveys
時間:2020年7月
1、Introduction
False Information :包括兩種disingotmation和misinfromation
- disingotmation:指出于某種目的故意誤導他人的虛假信息
- misinformation:指在事件演化或知識更新過程中產生的虛假信息,其目的不是誤導
FID方法: - 基于內容的方法:基于內容的檢測方法主要利用從社交帖子中提取的文本或視覺特征進行二元分類(真或假)。
- 基于社交環境的方法:通常依賴于大量用戶之間的交互特征,比如評論、轉發和關注。
- 基于特征融合的方法:綜合利用了內容特征和社會背景特征
- 基于深度學習的方法:主要通過神經網絡學習信息的潛在深度表示。
存在的問題:
- 現有的FID方法大多利用內容或傳播特性,通常在虛假信息的整個生命周期中都能很好地工作,這可能會導致早期檢測性能不佳。由于虛假信息可能會在幾分鐘內產生嚴重影響,因此在早期發現它們至關重要。
- 隨著在社交網絡上傳播的多模式帖子的增加,傳統的基于文本的檢測方法不再可行,在更復雜的場景中利用圖像或視頻進行FID是有益的。
- 目前的檢測方法只能給出聲明是否虛假的最終結果,但缺乏做出決定的理由。對揭穿不準確信息并防止其進一步傳播給出令人信服的解釋具有重要意義。
文章的貢獻
- 在簡要回顧FID文獻的基礎上,我們重點介紹了FID的最新研究趨勢,包括新事件的模型通用性、早期檢測、基于多模式融合的檢測和解釋性檢測
- 我們對基于人群智能的FID方法進行了研究,包括FID中人群智能的范圍、基于人群智能的檢測模型和混合人機融合模型
- 我們進一步討論了FID模型的開放性問題和有前途的研究方向,如模型對新事件的適應性/通用性,新的機器學習模型的接受,以及FID模型中的對抗性攻擊和防御。
2、相關工作
相關定義:
- 聲明sss:含有n個post,P={p1,p2,...,pn}P=\{p_1,p_2,...,p_n\}P={p1?,p2?,...,pn?}和mf個相關用戶U={u1,u2,...,um}U=\{u_1,u_2,...,u_m\}U={u1?,u2?,...,um?},其中pip_ipi?含有一系列特征,例如文字、圖片、評論數量等,uiu_iui?由一系列描述用戶的屬性組成,包括姓名、注冊時間、職業等。
- 令E={e1,e2,...,en}E=\{e_1, e_2, . . . , e_n\}E={e1?,e2?,...,en?}是指 m 個用戶和 n 個帖子之間的關系。每個 eie_iei? 定義為ei={pi,uj,a,t}e_i = \{p_i,u_j, a, t\}ei?={pi?,uj?,a,t},表示用戶uju_juj? 在時間 t 通過動作aaa(發布、轉發或評論)與帖子 pip_ipi? 進行交互。
- False Information Detection:給定一條語句sss,其帖子集 PPP,用戶集 UUU,參與集 EEE,錯誤信息檢測任務是學習預測函數 F(s)→0,1F (s) → {0, 1}F(s)→0,1,滿足:
2.1 基于內容的方法
??基于內容的方法主要基于虛假文章中的特定寫作風格或聳人聽聞的標題,例如詞匯特征、句法特征和主題特征[143]。例如,卡斯蒂略等人。 [16, 17] 發現可信度高的推文有更多的 URL,文本內容長度通常比可信度低的推文長。
1、基于post的方法
??基于帖子的方法主要依靠用戶的帖子來表達他們對特定事件的情緒或意見。許多研究通過分析用戶的可信度 [95, 118] 或立場 [63, 116] 來檢測虛假信息。例如,舒等人。 [164]從用戶檔案中探索真正有用的特征用于FID,以減少檢測過程中特征提取的負擔。具體來說,他們發現外向和隨和的用戶不太可能受到虛假信息的影響。而保守的用戶更容易相信虛假新聞、
2、基于傳播的特征。
??基于傳播的方法從整體上評估帖子和事件的可信度[14],通常關注信息傳播網絡的構建和可信度傳播。
??一些研究通過分析其傳播模式來檢測虛假信息。例如,馬等人。 [107] 發現社會背景的特征會隨著時間的推移而逐漸變化。因此,他們提出了一種 DSTS 模型來表征 FID 的社會背景特征的時間模式,該模型將信息傳播序列劃分為固定長度的片段,然后從每個帖子片段中提取基于內容和基于社會背景的特征,最后用支持向量機進行分類。劉等人。 [102]基于異構用戶的特定屬性構建信息傳播網絡,用于識別虛假信息的特殊傳播結構。金等人。 [79] 提出了一種貝葉斯非參數模型來表征新聞文章的傳輸,該模型聯合利用文章主題和用戶興趣進行 FID。此外,吳等人。 [186]觀察到,虛假消息通常首先由普通用戶發布,然后由一些意見領袖轉發,最后由大量普通用戶傳播。然而,真相往往是由一些意見領袖發布,然后被大量用戶直接傳播。基于這一觀察,他們提出了一種用于 FID 的混合 SVM 分類器,該分類器對消息傳播結構、主題信息、用戶屬性等進行聯合建模。
2.2 基于社會背景的方法
??傳統的基于內容的方法孤立地分析單個微博或聲明的可信度,忽略了不同推文和事件之間的高度相關性。此外,還有大量的人與內容交互數據(發帖、評論、轉發、評分和標記等),具體來說基于社會背景的方法,分為基于post的方法和基于傳播的方法
2.4 基于深度學習的方法
??基于深度學習的方法旨在自動抽象出虛假信息數據的高級表示。目前,大多數工作主要利用循環神經網絡 [106] 和卷積神經網絡 [195] 進行 FID,如表 2 所示。在本文中,我們首先總結一下廣泛使用的深度學習模型,主要包括:
- 卷積神經網絡 (CNN)。 CNN 可以從輸入中捕獲局部和全局特征。FID模型可以通過調整過濾器的大小來捕捉詞與詞、詞組與詞組之間的內容特征。
- 循環神經網絡(RNN),RNN 可以有效地捕捉序列數據的特征。社交網絡帖子顯然具有時間特征,所以FID 模型可以將帖子的交互數據分成連續的片段,并通過 RNN 捕捉它們的順序特征。然而,Glorot 等人。 [49] 發現 RNN 可能會遭受梯度消失的影響,這使得它沒有長期記憶。因此,長短期記憶(LSTM)[65]和門控循環單元(GRU)[25],一種具有門控機制的RNN,被廣泛用于NLP。
- 遞歸神經網絡 (RvNN)。 RvNN 與 RNN 類似,它在結構上展開數據,可用于分析數據的層次結構 [135],例如語法分析樹。該模型由根節點、左葉節點和右葉節點組成。此外,每個節點從直接的左右子節點學習其表示,遞歸計算,直到遍歷所有節點。
- 自編碼器 (AE)。 AE 是一種無監督學習模型,包括編碼和解碼階段 [64]。在編碼階段,輸入數據通過多個隱藏層轉化為潛在向量,在解碼階段將其重構為原始數據。通過最小化重構誤差,AE 盡可能多地學習輸入的表示。與 AE 相比,變分自動編碼器 (VAE) 約束了編碼階段并成為生成模型 [82]。編碼階段的隱藏層通過從特定分布(例如高斯分布)中采樣來學習潛在變量,然后將它們輸入到解碼階段以生成真實樣本。
- 生成對抗網絡(GAN)。 GAN 是一種生成神經網絡,由生成器和判別器組成 [51]。在反向傳播的迭代過程中,判別器區分其輸入來自真實數據集還是生成器生成的假樣本,而生成器根據數據集的采樣分布生成真實樣本以混淆判別器。他們最終達到了納什均衡,即生成器和判別器的性能無法再提高。
- 注意力機制。注意機制通常用于描述神經網絡對輸入序列的注意分布[7]。它計算當前輸入序列和輸出向量之間的匹配度,旨在捕獲輸入的關鍵信息。匹配度越高,注意力得分越高。因此,檢測方法可以利用注意力機制來找到這些對 FID 貢獻更大的單詞或短語。
??許多現有研究利用深度神經網絡通過將相關帖子建模為時間序列數據來學習虛假信息的潛在文本表示。例如,馬等人。 [106] 提出了一種基于 RNN 的檢測模型,該模型捕獲連續用戶評論流的時間語言特征。李等人。 [94] 考慮到后流的前向和后向序列都傳達了豐富的交互信息,因此他們提出了 FID 的雙向 GRU 方法。劉等人。 [101] 認為假新聞和真新聞的傳播模式存在差異,他們利用 CNN 和 GRU 對傳播路徑進行分類,以識別低可信度信息。于等人。 [194] 認為帖子的時間序列特征有助于準確地建模事件,他們提出了 FID 的 ACAMI 模型。該模型使用 event2vec(建議學習事件相關表示)和注意力機制來提取事件的時間和語義表示,然后使用 CNN 提取高級特征以對假微博帖子進行分類。
??一些方法將文本信息和社交上下文信息(例如用戶響應、用戶或網站配置文件)結合為深度神經網絡的數據輸入。例如,郭等人。 [60] 提出了一種分層神經網絡,將用戶、帖子和傳播網絡的信息視為數據輸入。此外,他們利用注意力機制來估計 FID 中特征的不同貢獻。 Ruchansky 等人的工作。 [144] 提出了一種基于 RNN 的檢測模型,該模型結合了新聞內容、用戶響應和源用戶的特征,以提升 FID 的性能。馬等人。 [111] 提出了一種基于 GAN 的檢測模型,旨在捕捉虛假推文的低頻但有效的跡象。生成器(基于 GRU 的 seq2seq 模型)試圖生成有爭議的意見,使推文觀點的分布更加復雜,而鑒別器(基于 RNN)試圖從增強樣本中識別虛假信息的穩健特征。
??還有一些使用圖神經網絡進行 FID 的工作,例如 GCN。他們經常利用神經網絡分析社交帖子的傳播結構,然后為分類器提取信息傳播模式的高級表示。例如,蒙蒂等人。 [117] 提出了一種基于 GCN 的 FID 模型,該模型集成了推文內容、傳播結構、用戶個人資料和用戶社交關系(關注和被關注)。給定原始推文和所有相關推文,即評論和轉發,檢測模型以每條推文為節點,以推文傳播路徑和用戶關系為邊,構建事件特定圖。之后,他們使用 GCN 來識別那些低可信度的推文,其中包含兩個卷積層和兩個全連接層。此外,董等人。 [33] 提出了一種基于GCN的檢測模型,名為 GCNSI,它利用圖卷積網絡來檢測多個錯誤信息源。
2.5 Existing Detection Tools
??除了學術研究,研究人員還開發了幾種 FID 工具。根據主要檢測內容,現有的在線工具主要可分為基于圖像的工具和基于文本的工具。
- 基于圖像的檢測工具: FotoForensics 通過分析圖像壓縮級別的分布來判斷目標圖像是否被修改。如果圖像已被修改,則包含該圖像的聲明很可能是一條虛假信息。此外,知識搜索引擎Wolfram Alpha 還可以通過檢索其知識庫中的信息來驗證圖像的真實性,這有助于檢測包含圖像的虛假信息。
- 基于文本的檢測工具 :。現有的 FID 工具主要側重于文本內容的檢測,一些工具也成為學者構建數據集的基本參考,例如 Politifact、 Snopes和 Factcheck。它們可以檢查社交媒體上流傳的可疑聲明的事實。網絡,并為用戶提供來自值得信賴的專家或記者的分析報告。此外,研究人員還開發了多種在線 FID 工具,例如 Fake News Detector、TwitterTrails、 和 Hoaxy。
3、虛假信息檢測的新趨勢
3.1 早期檢測
??大量用戶很容易在社交網絡上傳播虛假信息,在很短的時間內造成嚴重影響 [14, 46]。因此,早期發現虛假信息成為重要的研究課題。然而,大多數現有研究(基于內容和基于社會背景的方法)通過假設它們擁有所有生命周期數據來檢測錯誤信息。它們依賴于幾個聚合特征,例如內容特征和傳播模式,這需要一定數量的帖子來訓練魯棒的分類器。虛假信息開始時的可用數據非常有限,以至于在早期階段檢測它具有挑戰性。最近,對于早期的 FID 也有一些努力。
??傳統的機器學習方法往往在帖子的早期傳播中分析用戶交互信息,手動提取大量特征,最后使用分類器(例如,SVM、隨機森林)來評估它們的可信度。例如,劉等人。 [100] 發現來源可靠性、用戶多樣性和證據信號,如“我看到”和“我聽到”,在少量數據中對 FID 有顯著影響。此外,Qazvinian 等人。 [136] 觀察到用戶傾向于在推文傳播的早期階段表達自己的想法(例如,支持或質疑)。因此,合理利用用戶對消息的信念,對于早期發現虛假信息大有裨益。為了解決缺乏數據的問題,從相關事件中借用知識用于 FID 將是另一種有用的方法。例如,桑普森等人。 [149] 通過利用隱式鏈接(例如,標簽鏈接、網絡鏈接)來獲取來自相關事件的附加信息,提出了一種用于緊急 FID 的方法。實驗結果表明,當可用的文本或交互式數據較少時,此類隱式鏈接顯著有助于正確識別出現的不真實聲明。
??許多檢測方法利用深度學習模型來早期檢測錯誤信息。基于深度學習的檢測方法通常使用神經網絡自動提取社交上下文特征,并利用注意力機制找到 FID 的關鍵特征。例如,Liu 等人。 [99] 觀察到只有少數帖子對 FID 有很大貢獻。為了選擇這些關鍵內容,他們提出了一種基于注意力的檢測模型,該模型通過注意力值來評估每個帖子的重要性。此外,實驗結果表明,正確使用注意力機制有利于早期發現錯誤信息。同樣,陳等人。 [20]發現用戶在信息傳播的不同時期傾向于評論不同的內容(例如,從驚訝到質疑)。基于這一觀察,提出了一種基于 RNN 的深度注意力模型,用于選擇性地學習用于早期 FID 的序列帖子的時間隱藏表示。于等人。 [195]利用基于CNN的模型從帖子序列中提取關鍵特征并學習它們之間的高級交互,這有利于識別具有相對較少交互數據的假推文。阮等人。 [123] 還利用 CNN 來學習每條推文的潛在表示,從而獲得推文的可信度。然后,他們通過在事件開始時聚合相關推文的所有預測來評估目標事件是否是一條虛假信息。更重要的是,劉等人。 [101] 發現在消息傳播的早期,大多數用戶在沒有評論的情況下轉發源推文,這隱含地導致了在早期 FID 中使用用戶評論的一些延遲。因此,他們提出了一種傳播路徑分類模型,命名為 PPC,該模型聯合使用 CNN 和 GRU 來提取用戶在轉發路徑中的局部和全局特征。
4 基于人群智能的檢測
??現有研究表明,帖子的內容特征仍然是 FID 的重中之重。隨著社交帖子被用戶生成、交互和消費,它會在帖子的編輯、評論和轉發中吸收各種人類智能(例如觀點、立場、提問、證據提供)。所謂的人群情報 [58, 96, 185] 也是在社交媒體帖子的傳播過程中以集體方式聚合的。正如 Castillo 等人所述。 [16],一個有希望的假設是社交媒體環境中有一些內在信號有助于評估信息的可信度。馬等人。110] 還發現 Twitter 支持基于匯總的用戶意見、猜想和證據片段對虛假信息的“自我檢測”。盡管如此,如何在 FID 中利用人群智能仍然是一個懸而未決的問題。在第 4 節中,我們嘗試通過提煉和展示FID系統中人群智能的幾種不同使用形式來解決這個問題,如圖 2 所示。
4.1 虛假信息中的群體情報
??在FID中,人群智能是指在信息生成和傳播過程中,來自社交媒體用戶的智慧的聚合線索或社交信號。在本小節中,我們總結了 FID 中人群智能的含義和使用方式。
??我們從社會背景、集體知識和集體行為三個方面來描述群體智能。
- **社會背景:**源用戶和傳播者之間的社會關系和互動有助于理解信息的確定性。例如,金等人。 [80] 認為用戶標記可以間接反映推文的可信度,因此他們使用 PGM 生成人與內容交互過程并推斷推文的真實性。趙等人。 [199] 發現人群對評論真實性的提問或詢問是低可信度信息的指示性信號,他們使用正則表達式從用戶評論中提取上述信號用于 FID。此外,吳等人。 [188] 考慮到相似的主題可能會在相似的人群中傳播,因此他們對傳播者進行編碼以捕捉他們的社交接近度以識別虛假消息。
- **集體知識:**人群提供的收集證據有助于推斷信息的可信度。例如,林等人。 [97] 利用用戶對目標事件在線證據的支持或反對來檢測不準確的陳述。雷亞納等人。 [142]認為用戶的評分和評論是對帖子可信度的真實評價,因此他們提出了一個名為SpEagle的檢測框架,該框架從集體線索和關系數據(信息傳播網絡)中提取特征。此外,錢等人。 [138] 提出了一種用于 FID 的人群知識轉移方法,其中利用了來自歷史真實/虛假聲明的人群響應知識(例如,上下文特征和行為特征)。
- **集體行為:**在許多情況下,雖然個人行為不能很好地表征信息可信度,但來自一組用戶的聚合行為往往會揭示更多信息。這可能是指人群互動模式、行為或意見偏離多數 [88]、觀點沖突等。例如,經常參與低可信信息生產和傳播的用戶存在行為偏差,例如在短時間內發表若干意見,或在固定間隔后與內容互動。基于上述觀察,Kumar 等人。 [88] 通過貝葉斯模型推斷回復者及其評論的可信度。此外,Jin 等人。 [76] 發現同一事件下的相關推文包含支持和反對意見(通過 LDA 主題模型分析),他們利用這些相互沖突的觀點為 FID 構建可信度傳播網絡。
??在調查了現有的 FID 研究后,我們提煉出四種不同的人群智能使用方式,如下所示。 - **人群學習模型:**它主要使用特征工程和代表性學習將人群智能整合到 FID 模型中。
- **人群行為建模:**它使用圖形或概率模型對人群行為和交互進行建模,以推斷信息的可信度。
- **人群知識轉移:**學習到的 FID 模型通常不適用于新事件。這種方式解決了如何將人群知識從現有事件轉移到新事件。
- **混合人機模型:**考慮到人類智能和機器智能的互補性,這種方式專注于開發用于 FID 的混合人機模型。
?? 前三種方式的一個共同特點是人群智能以隱含的方式使用,沒有明確的人工輸入。具體來說,人群智能被表示為統計人類行為模式,用作學習模型中的特征或參數。然而,最后一種方式是基于明確的人工輸入,例如使用眾包進行數據標記。此后,我們在第 4.2 節中描述了前三種形式的相關工作,在第 4.3 節中描述了最后一種形式。
4.2 隱式眾智模型
??在本節中,我們介紹了在 FID 中使用隱式人群智能的開創性研究,特別關注第 4.1 節中描述的前三種方式,如表 4 所示。
(1) 人群學習模型。
??在該模型中,人群智能被表示為訓練分類器以檢測虛假信息的特征。這已被證明對早期 FID 很有用。例如,劉等人。 [100] 嘗試使用來自 Twitter 數據的人群線索來解決實時虛假聲明揭穿的問題,包括人們的意見、證人賬戶的統計數據、對事件的聚合信念、網絡傳播等。趙等人。 [199] 觀察到,在決定是否相信此消息之前有些人愿意質疑或詢問 Twitter 中聲明的真實性。特別是,他們發現使用探究性思維有助于及早發現錯誤信息。
??社會關系和互動也是 FID 特征學習中廣泛使用的人群智能。例如,吳等人。 [188]假設相似的消息通常會導致相似的信息傳播軌跡。他們提出了一種社交媒體用戶嵌入方法來捕獲社交接近度和社交網絡結構的特征,在此之上使用 LSTM 模型對信息傳播路徑進行分類并識別其真實性。雷亞納等人。 [142]應用集體意見線索和關系數據來檢測虛假信息。
??利用發布虛假帖子的用戶行為與發布真實事實的用戶行為不同的群體智能,識別虛假信息也很有幫助。Chen等人[22]提出了一種無監督學習模型,該模型將RNN和自動編碼器結合起來,以區分低可信度信息與其他真實聲明。此外,Xie等人[189]觀察到,評論垃圾郵件攻擊與其評級模式密切相關,這與正常評論人的行為模式不同。因此,他們提出了一種基于時態行為模式的評論式垃圾郵件檢測方法,為基于群體學習模型的FID提供了參考
(2) 人群行為建模。
??在該模型中,群體行為是群體智能的一種,它被建模為圖形或概率模型來推斷信息可信度。Hooi等人[66]發現欺詐賬戶通常在短時間內呈現其評級(評級分數滿足偏態分布)。 群體智慧的特點是貝葉斯推理模型,它可以估計用戶的行為與相關社區的行為之間的偏差。他們通過測量行為偏差的程度來推斷用戶評分的可信度。類似地,Kumar等人[88]提出了一個貝葉斯檢測模型,該模型結合了聚合的群體智慧,例如用戶的行為屬性、評級的可靠性和產品的優點。通過懲罰異常行為,它可以推斷出評級平臺中的信息可信度。
??一些研究利用聚集人群行為建模來促進虛假信息的早期檢測。例如,馬等人[110]假設回答者傾向于詢問支持或否認給定事件的人,并表達他們對更多證據的渴望。因此,他們提出了兩個樹結構遞歸神經網絡(RvNN),用于有效的假推特表示學習和早期檢測,該網絡可以對用戶回復結構建模,并學習捕獲聚合信號以用于FID。
(3) 群體知識轉移。
??現有的FID模型在新興和時間關鍵事件上仍然表現不佳。換句話說,現有的FID模型通常捕捉到許多與事件相關的特征,這些特征在其他事件中并不常見。因此,有必要學習并將從現有眾包數據中學習到的共享知識轉移到新的活動中。Wang等人[182]的工作提出了一種檢測模型,用于使用可轉移特征識別新生成的假事件,稱為事件對抗神經網絡(EANN),該模型由三部分組成,即“特征提取器”、“事件鑒別器”和“假新聞檢測器”EANN使用事件鑒別器學習與事件無關的共享特征,并在模型訓練期間減少事件特定特征的影響。
??群體知識轉移模型也有助于早期FID。例如,錢等人[138]設計了一個生成式條件變分自動編碼器,從歷史用戶對真假新聞文章的評論中捕捉用戶的反應模式。換句話說,在虛假信息傳播的早期階段,當社交互動數據不可用時,群體智能被用來生成對新文章的響應,以提高模型的檢測能力。Wu等人[187]還探討了從歷史眾包數據中獲得的知識是否有助于發現新出現的虛假社交媒體帖子。他們觀察到,內容相似的社交帖子往往會導致類似的行為模式(例如好奇、探究)。因此,本文建立了一個稀疏表示模型來選擇共享特征并訓練與事件無關的分類器。
4.3混合人機模型
??FID 是一個具有挑戰性的問題,僅靠自動模型無法很好地適應各種上下文和事件。然而,人類智能可以通過利用他們的知識和經驗來適當地解決這個問題。因此開發了混合人機模型,以利用人類智能和機器智能的互補性來進行 FID。從廣義上講,它屬于“人類計算”范式,旨在開發人機系統,將人群和機器能力無縫交織,以完成兩者都無法完成的任務[113, 177]。人機系統有幾個有代表性的例子。例如,reCAPTCHA [178] 是一個類似于驗證碼的系統,用于保護計算機安全,同時它利用個人的共同努力來實現書籍的數字化。 Pandora [124] 是一種混合人機方法,可以解釋基于組件的機器學習系統中的故障。
??與隱含的基于人群智能的模型不同,此類模型中使用的人類智能通常基于顯式的人類輸入。這樣的模型通常會提供足夠的可解釋信息來促進人機協作。在人機協作的幫助下,所提出的模型通常可以加快錯誤信息的檢測速度。
??如表 5 所示,已經建立了幾個人機模型用于事實驗證。例如,Nguyen等人[120]認為,一個可靠的系統應該在如何獲得決策結果方面對用戶透明 。他們提出了一種混合主動的方法,將人類知識和經驗與人工智能相結合,用于事實檢查。此外,Nguyen等人[121]提出了一種基于PGMs的人機混合方法,該方法將顯式人類智能(通過眾包)與計算能力相結合,共同建模姿態、準確性和眾包標簽。這種方法能夠生成FID的解釋。Vo等人[175]提出了一個事實檢查URL推薦模型,以阻止人們共享虛假信息。這種模式激勵監護人(傾向于糾正虛假信息的用戶)積極參與事實核查活動,并向社交網絡傳播經驗證的文章。
??顯式人類智能也被表征并用于 FID 的概率模型。 Kim 等人的工作。 [80] 提出了 CURB,它利用標記的時間點過程來模擬低可信度文章的眾包標記過程。為了通過可證明的保證顯著減少虛假信息的傳播,CURB 可以決定選擇哪個語句進行識別以及何時檢查它。 Tschiatschek 等人。 [174] 還提出了一個貝葉斯推理模型,該模型結合了人群標記來檢測虛假帖子。為了評估推文中新聲明的可信度,Lim 等人。 [97] 提出了一個名為 iFACT 的交互式框架。它從網絡搜索結果中收集獨立證據,并確定新聲明和歷史聲明之間的依賴關系。進一步允許用戶提供關于網絡搜索結果是否與未經驗證的信息相關(支持或反對)的明確反饋。此外,Bhattacharjee 等人。 [11]提出了一種人機協作學習系統,用于快速駁斥虛假信息。在這項工作中,他們將主動學習方法引入 FID,首先在有限的標記數據上訓練一個初始分類器,然后使用交互方法逐步更新這個檢測模型。
5.未決問題和未來方向
??盡管研究人員已經做出了越來越大的努力來解決FID系統中的上述挑戰,但如下文所述,未來仍有有待研究的問題。
(1)虛假信息的認知機制。
??人們對虛假信息的認知機制的研究對于檢測和駁斥虛假社交媒體帖子[87]具有很好的指導意義,尤其是基于群體智能的檢測方法。有幾部著作對社交媒體平臺上的低可信度帖子進行了分析,以研究虛假信息能夠迅速廣泛傳播的原因。Lewandowsky等人[92]認為,協同虛假信息需要在技術和心理學的背景下進行科學研究,因此他們提出了一種稱為“技術認知”的跨學科解決方案。此外,他們還將用戶在虛假信息面前的認知問題分為四類,包括影響效應、熟悉性逆反效應、過度殺戮逆反效應、世界觀逆反效應,這為研究用戶對虛假信息的感知奠定了基礎[93]。正如Acerbi[1]得出的結論,不準確信息的快速傳播在于它們包含滿足用戶認知偏好的特定內容。為了探索虛假信息的認知特征,他們通過將認知偏好編碼為“威脅”、“厭惡”、“社交”、“名人”等部分,進一步分析了真假新聞文章中偏好的分布。未來值得研究的一點是將虛假信息和真實信息與具有認知吸引力的特征進行比較,或者評估與認知偏好相關的特征如何影響信息的真實性。
??除了在數據分析層面研究認知機制,我們還可以從人腦認知功能的角度來學習機制。神經科學的進步為研究虛假信息的認知機制提供了一種有前途的方法。正如 Poldrack 等人所述。 [130],利用腦電圖 (EEG)、腦磁圖 (MEG)、功能磁共振成像 (fMRI) 和其他腦成像工具可以促進我們了解人類大腦如何形成社會行為。此外,Adolphs [3] 已經確定了參與社會認知調節的神經結構,例如扣帶回皮層、海馬體和基底前腦。阿拉帕基斯等人。 [6]利用腦電圖記錄來衡量用戶對新聞文章的興趣,實驗結果表明,正面阿爾法不對稱(FFA)可以客觀地評估用戶對媒體內容的偏好。為了解釋信息病毒式傳播的機制,Scholz 等人。 [151] 提出了一個基于 fMRI 數據的神經認知框架來評估用戶在 Facebook 上分享信息的意愿。如果我們能夠理解虛假信息的認知機制,那么可以將更多的精力集中在探索揭穿信息最大化方法上,以找到針對虛假信息的穩健對策。
(2) 缺乏標準數據集和基準。
??盡管研究人員已經在FID上做了大量工作,但仍然缺乏像ImageNet[31]這樣的用于視覺對象識別的基準數據集。數據集作為一種資源,與FID中的算法一樣重要。然而,收集假消息是一個費時費力的過程,這導致缺乏權威的基準。
??我們總結了自2015年以來使用的開放數據集,如表6所示,我們從新浪微博(如RUMDECT21和Meida_微博22)、Twitter(如MediaEval.PHEME,RumorEval),snopes.com, politifact.com(e.g.Emergent,26 BuzzFeedWebis,27 LIAR,28 Declare,29 and FakeNewsNet30)和其他事實核查網站。然而,這些數據集的注釋方法、數據維度以及正確和錯誤陳述的比率是不同的,這對研究人員公平評估其模型性能提出了一定的挑戰。Shu等人[162]總結了廣泛使用的FID評估指標,現有的評估指標仍然是精度、召回率、F1分數、準確度等機器學習模型評估指標。在 FID 中,我們需要定義一些更實用的評估指標。例如,在政治選舉中,我們會更關注虛假陳述是否被更充分地識別(即更關注召回而不是精確),因此使用 F1 分數來評估檢測模型的性能不是很合適。在未來的研究中,需要標準的數據集和實用的評價指標來比較各種 FID 算法,促進 FID 方法的發展。
(3) 模型適應性/對新事件的普遍性。
??FID方法應識別不可見的、新發生的事件,因為系統的現有數據可能與新發生事件的內容不同。然而,現有方法傾向于提取難以與新事件共享的特定于事件的特征[204]。正如托洛西等人[173]所述,基于特征工程的檢測方法很難在不同領域(如政治、犯罪、自然災害)檢測到虛假信息,因為特征在不同的事件中會發生顯著變化。因此,模型的通用性或自適應性對于提高FID模型的魯棒性非常重要。Zubiaga等人[206]指出,依賴于領域的特征分布可能會限制模型的泛化能力。由于大多數特征的分布直接對應于事件,FID模型的性能將受到影響。雖然我們在第4.2節中討論了一些群體知識轉移模型[138、182、187],但還有很多需要研究。轉移學習模型[59126]已成功應用于其他領域(如情感分類[50]和圖像識別[103]),可用于設計領域適應性FID模型。使用基于GAN的鑒別器[182]是建立具有共享特征的廣義FID模型的另一種有希望的方法。
??另一個值得探索的有趣方向是我們應該從相似領域借用知識。例如,我們可以參考網絡安全、病毒/垃圾郵件檢測方法 [21、153、203],它們也存在早期檢測和模型泛化等類似問題。
(4) 接受新的機器學習模型。
??FID過程本質上是分類器的學習,以識別給定索賠的可信度。我們發現,許多研究建立了深度學習模型[20、72、101、106、123、144、195],以提高自動事實檢查的性能。然而,還有更多可以探索的地方。在下文中,我們將介紹幾個利用先進機器學習技術實現FID的代表性示例。
- 多任務學習。多任務學習[109]旨在通過使用相關任務中包含的領域知識來提高模型的泛化性能。現有的方法通過對任務相關性(例如特征共享、子空間共享和參數共享)建模來尋找多個任務之間的共性,作為促進每個任務學習效果的一些補充知識。例如,馬等人。 [109] 認為 FID 任務與姿態分類任務高度相關,因此他們提出了一種神經多任務學習框架來更好地進行事實檢查。在權重共享的機制下,他們提出了兩個基于 RNN 的多任務結構來聯合訓練這兩個任務,這可以為謠言表示提取普通以及特定于任務的特征。受這項工作的啟發,我們可以研究 FID 與其他任務之間的聯系和協作,并進一步設計基于多任務學習的算法來提高 FID 模型的性能。
- 少量學習。 Few-shot learning [183]?? 致力于通過利用少量監督信息來識別來自看不見的類別的樣本來解決數據稀缺問題。現有的小樣本學習方法通??常將其訓練過程分解為多個元任務學習過程,類似于元學習[43],它從不同任務的數據中提取可轉移的知識。因此,這允許僅使用少量標記數據對新類別進行分類。據我們所知,FID 中應用的少樣本學習方法較少,因此我們可以從其他相關領域學習,例如文本分類。為了改進分類器的歸納和泛化,Geng 等人。 [48] 提出了一種基于動態路由算法的分類架構,稱為歸納網絡,它從幾個樣本中學習廣義的類級表示。 Induction Networks 主要包含一個編碼器模塊、一個歸納模塊和一個關系模塊。具體來說,編碼器模塊生成樣本和查詢表示,然后歸納模塊利用變換矩陣將樣本級表示映射到類級表示。最后,關系模塊計算查詢與每個類之間的匹配度。這項工作表明few-shot learning在NLP中具有巨大的潛力,我們可以繼續研究基于few-shot learning的FID方法。
- 半監督模型。大多數現有的 FID 工作都集中在監督分類上,它們通常訓練分類器通過大量標記數據(例如,假或非)來識別錯誤信息。然而,在很多情況下,我們只有少量的標記數據。半監督模型通常用于處理標簽稀疏問題。例如,Guacho 等人。 [55] 提出了一種半監督 FID 方法,該方法利用基于張量分解的文本嵌入來捕獲社交帖子的全局和局部特征。在構建所有帖子的K-Nearest Neighbor (K-NN)圖后,他們使用置信度傳播算法將已知標簽傳播到圖中以獲得事件的最終可信度。此外,圖神經網絡的發展也為半監督檢測模型的研究提供了機會。GNN,如 DeepWalk [129]、LINE [171] 和 node2vec [54],利用不同的采樣算法生成節點序列,然后通過skip-gram模型學習每個節點的表示或傳播路徑。他們將一階接近度(表征兩個相鄰節點之間的相似性)和二階接近度(表征兩個節點之間的結構相似性)引入到他們的損失函數中,以確保神經網絡能夠充分提取特征圖表。特別是,如第 2 節中所討論的,GCNs [83] 通過圖的拉普拉斯矩陣的非線性變換在相鄰的卷積層中傳輸信息。每個卷積層只計算一階接近度,因此 GCN 可以通過多個卷積層學習節點或傳播路徑的高級特征表示。特別是,GNN 能夠通過顯式圖正則化方法 [184] 對圖進行半監督學習來平滑標簽信息。因此,FID 模型可以構建信息傳播圖并結合 GNN 來檢測虛假信息。
- 無監督模型。如果能夠直接建立可靠的無監督檢測模型,那么對于快速駁斥虛假信息具有重要意義。無監督模型可以通過人與內容的交互(例如發布或轉發社交媒體帖子)和人與人的交互(例如關注或提及某些用戶)來評估帖子的可信度。一方面,GAN 和 VAE 的進步為無監督 FID 模型帶來了新的可能性。然而,PGMs 仍然可以在 FID 中發揮重要作用。例如,陳等人。 [22] 從用戶的發帖行為判斷帖子的真假。這種無監督的方法利用 AE 來學習個人最近發帖及其評論的潛在表示。當其重構誤差收斂時,該模型可用于評估新帖子的可信度。如果模型的重建誤差超過了一定的閾值,那么這個帖子可能是假消息。楊等人。 [191]將新聞真實性和用戶可信度視為潛在變量,并利用用戶評論來推斷他們對新聞真實性的看法。換句話說,新聞的真實性取決于用戶觀點的可信度,觀點的可信度取決于用戶的聲譽。他們利用貝葉斯網絡對交互過程進行建模,以在沒有任何標記數據的情況下推斷新聞文章的真實性。實際上,用戶的觀點可能會受到其他用戶的影響,他們對不同主題的虛假信息的識別能力也不同。在使用 PGM 時可以進一步考慮這些條件。
- 混合學習模型。混合學習模型的發展,將線性模型和深度學習模型相結合,已經成為人工智能的一個新的研究趨勢,即顯性特征和潛在特征的結合使用。它利用了兩種學習模型的互補性。例如,Wide & Deep [24] 是一個性能良好的推薦系統框架,其中 Wide 部分提取顯式特征,Deep 部分學習非線性的潛在特征。 FID中也有初步的混合學習模型。楊等人。 [192] 提出了用于檢測錯誤信息的 TI-CNN 模型,該模型基于顯式和隱式特征空間的融合,對文本和視覺信息進行聯合訓練。此外,張等人。 [197] 提出了一種基于貝葉斯深度學習的 FID 模型,該模型使用 LSTM 對斷言(聲明)和用戶評論進行編碼,并利用貝葉斯模型來推斷分類結果。由于混合學習模型還處于早期階段,需要在這個方向上進一步研究,例如概率圖模型和深度學習模型的融合。
(5) FID模型中的對抗性攻擊和防御。
??基于深度學習的 FID 模型有助于有效提高事實檢查性能。然而,Szegedy 等人。 [169] 已經證明,經過訓練的神經網絡可能無法抵抗對抗性攻擊,這意味著向輸入向量添加一些小擾動可能會使模型得到錯誤的結果 [4]。現有的 FID 研究很少強調可以被對抗性攻擊欺騙的深度模型的穩健性。
??盡管對 FID 模型中的對抗性攻擊和防御的研究很少,但有關其他任務的相關工作(如圖像分類 [52、169]、語音識別 [15]、文本分類 [86] 和強化學習 [10])已被調查。有幾項工作側重于對抗性攻擊對模型的影響。例如,戴等人。 [28] 提出了一種基于強化學習 (RL) 的圖數據對抗性攻擊方法,該方法通過增加或減少圖中邊的數量來學習最優攻擊策略。為了為文本生成普遍的對抗性擾動,Behjati 等人。 [9]提出了一種基于梯度投影的攻擊方法。賈等人。 [71] 通過在不會對人類理解造成困難的問題中添加句子或短語來攻擊問答系統。
??盡管對 FID 模型中的對抗性攻擊和防御的研究很少,但有關其他任務的相關工作(如圖像分類 [52、169]、語音識別 [15]、文本分類 [86] 和強化學習 [10])已被調查。有幾項工作側重于對抗性攻擊對模型的影響。例如,戴等人。 [28] 提出了一種基于強化學習 (RL) 的圖數據對抗性攻擊方法,該方法通過增加或減少圖中邊的數量來學習最優攻擊策略。為了為文本生成普遍的對抗性擾動,Behjati 等人。 [9]提出了一種基于梯度投影的攻擊方法。賈等人。 [71] 通過在不會對人類理解造成困難的問題中添加句子或短語來攻擊問答系統。
(6) 解釋性檢測模型。
??提供決策結果的證據或解釋可以增加用戶對檢測模型的信任。盡管關于解釋性 FID 模型的工作很少,但解釋的應用已經在其他相關領域進行了研究,例如推薦系統。
??可解釋的推薦,它解釋了為什么推薦一個項目,近年來引起了越來越多的關注[198]。它可以提高用戶對推薦系統的接受度、可信度和滿意度,增強系統的說服力。例如,陳等人。 [23] 提出了一種基于注意力神經網絡的視覺上可解釋的推薦方法來模擬用戶對圖像的注意力。用戶可以通過提供個性化和直觀的視覺亮點來理解為什么推薦產品。凱瑟琳等人。 [18] 研究如何在外部知識圖譜的支持下生成可解釋的推薦,他們提出了一種個性化的 PageRank 程序來對項目和知識圖譜實體進行排序。王等人的工作。 [181]提出了一種基于強化學習(RL)的與模型無關的解釋性推薦系統,可以靈活控制解釋的呈現質量。最重要的是,這種可解釋的推薦系統中使用的方法可以啟發我們設計更好的可解釋 FID 系統。
??從更高的角度來看,機器學習模型在不同的應用領域(除了推薦系統和 FID)推動了突破。盡管取得了巨大的成功,但我們仍然缺乏對其內在行為的理解,例如分類器如何得出特定的決定。這導致了可解釋機器學習(IML)的研究方向激增。 IML 使機器學習模型能夠以人類可理解的術語進行解釋或呈現 [2, 34]。杜等人。 [35] 定義了兩種類型的可解釋性:模型級解釋和預測級解釋。模型級解釋,為了增加模型本身的透明度,可以闡明機器學習模型的內部工作機制。預測級解釋有助于揭示特定輸入和模型輸出之間的關系。對于 FID,它更關注預測級別的解釋,這可以說明如何做出決定(使用來源可靠性、證據和立場等要素)。構建預測級可解釋模型的代表性方案是采用注意力機制,該機制被廣泛用于解釋由序列模型(例如 RNN)做出的決策結果。我們還應該研究源自 IML 的其他方法,以增強 FID 系統的可解釋性。
(7) 群體智慧的集合。
??對于FID系統來說,如何聚集人群智慧是很重要的,因為人群貢獻數據往往存在噪聲。大多數用戶的意見可以有效地用于識別虛假信息,但也存在真相掌握在少數人手中的情況。因此,未來仍有必要探索FID群體智慧的聚集與優化方法。
??我們可以從真相發現系統中學習。隨著人類智能從相互沖突的多源數據中提取可靠信息的能力,真相發現已經成為一個越來越重要的研究課題。對于FID,我們也有多篇關于一個事件的帖子,目標是確定這個事件的真相。因此,這兩個研究問題之間有相似之處,我們可以借鑒真相發現系統的知識來促進FID。例如,Liu等人[98]提出了一種專家驗證輔助的圖像標簽真相發現方法,旨在盡可能從嘈雜的眾包標簽中推斷出正確的標簽。特別是,它以人機協作的方式使用半監督學習算法,可以最大限度地發揮專家標簽的影響,減少專家的工作量。Zhang等人[196]提出了一個基于概率圖的真相發現模型,名為“TextTruth”,該模型通過全面學習關鍵因素(一組關鍵字)的可信度來選擇問題的高度可信答案。TextTruth以無監督的方式推斷答案提供者的可信度和答案因素的可信度。Yin等人[193]提出了一種以無監督方式聚集人群智慧的模型,稱為標簽感知自動編碼器(LAA),它提取多源標簽的基本特征和模式,并通過分類器和重構器推斷出可信的標簽。為了應對同一信息源在不同主題上具有不同可信度的挑戰,Ma等人[105]提出了一種名為FaithCrowd的眾包數據聚合方法。FaithCrowd通過在概率貝葉斯模型上對問題內容和出版商的答案進行建模,共同學習問題的主題分布、答案提供者基于主題的知識以及真實答案。
(8) 社交機器人的傳播。
??現有的 FID 研究集中于聲明的內容和傳播模式。但是,發布和傳播帖子的“帳戶”的特征沒有得到很好的調查。最近,已經做出了一些努力來研究虛假信息像病毒一樣迅速傳播的根本原因。例如,邵等人。 [155] 對 2016 年美國總統大選期間的 1400 萬條推文進行了詳細分析,他們觀察到“社交機器人”顯然促進了虛假信息的快速傳播。社交機器人通常是指為了某種目的而模仿人類交互行為(例如,制作內容、關注其他帳戶、轉發帖子等)的計算機算法或軟件程序 [40]。這些惡意機器人帳戶在虛假推文傳播的早期階段異常活躍。此外,在對社交機器人的社交互動和情感互動進行建模之后,Stella 等人。 [167] 發現它們增加了社交網絡上負面和暴力內容的曝光率。
??上述研究結果表明,抑制社交機器人可能是減輕虛假信息傳播的一種有希望的方式。一些研究人員分析了社交機器人的行為模式并提出了一些檢測方法。例如,費拉拉等人。 [40]將現有的社交機器人檢測方法分為四類,包括基于圖的模型、眾包、基于特征的模型和混合模型。阿爾馬圖格等人。 [5] 設計了一種社交機器人檢測方法,該方法結合了內容屬性、社交互動和個人資料屬性。同樣,Minnich 等人。 [115] p r o p o s e BotWalk 檢測方法,該方法利用多種特征將用戶與機器人帳戶區分開來,例如元數據、內容、時間信息和網絡交互。克雷斯奇等人。 [27]對社交機器人的集體行為進行了深入分析,并介紹了一種用于垃圾郵件檢測的社交指紋技術。特別是,他們利用數字 DNA 技術來描述所有賬戶的集體行為,然后他們提出一種受 DNA 啟發的方法來識別真實帳戶和垃圾郵件機器人。克雷斯奇等人。 [26] 還利用組帳戶的特征來檢測惡意機器人。隨著社交機器人促進低可信度陳述的傳播和負面內容的曝光 [155, 167],未來的工作可以將 FID 與社交機器人檢測結合起來,為快速駁斥虛假信息提供新的解決方案。
(9) 虛假信息緩解。
??有效的FID是防止虛假信息的一部分,也需要科學研究來減少虛假信息的影響,屬于虛假信息緩解的研究范圍。一些研究綜述了虛假信息緩解和干預的方法。例如,Sharma等人[156]從信息擴散的角度總結了三種緩解方法,即“去污”、“競爭級聯”和“多級干擾”舒等人[159]將現有的緩解策略分為“用戶識別”、“網絡規模估計”和“網絡干預”由于每個用戶在傳播虛假信息時扮演著不同的角色,如意見領袖、監護人、惡意傳播者和旁觀者,因此有必要采取靈活的緩解措施。例如,建議意見領袖和監護人提供事實信息,以幫助傳播真相[175],而應遏制惡意賬戶或機器人[122]。正如Ozturk等人[125]所說,在Twitter上顯示帶有事實核查信息的虛假消息有助于減少虛假信息的持續傳播。基于這一觀察,Budak等人[13]提出了多戰役獨立級聯模型,該模型包含虛假信息戰役和真實信息戰役。此外,我們還可以利用多元霍克斯過程[37]來模擬外部干預影響下虛假信息的傳播動力學。
??在未來的研究中,FID可以與上述緩解策略相結合,探索在防止社交網絡上傳播虛假信息方面更具前景的工作。此外,Sundar[168]曾證實,社交帖子中來源歸屬的存在提高了用戶對在線信息可信度和質量的感知。因此,來源歸因和因果推斷[158]也可用于指導社交媒體上虛假信息的檢測。
6 結論
??本文系統地回顧了FID的研究動態。在簡要回顧了FID的文獻后,我們提出了幾個新的研究挑戰和技術,包括早期檢測、多模態數據融合檢測和解釋性檢測。我們進一步研究了群體智能在FID中的應用,包括基于群體智能的FID模型和人機混合FID模型。雖然FID的研究已經取得了很大的進展,但它仍處于早期階段,有許多開放的研究問題和有前途的研究方向有待研究,例如模型對新事件的適應性\通用性,采用新的機器學習模型,解釋性檢測模型等。
總結
以上是生活随笔為你收集整理的谣言检测文献阅读三—The Future of False Information Detection on Social Media:New Perspectives and Trends的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Compose 跨平台的现状
- 下一篇: 为什么这么多人转行产品经理?产品经理发展