日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

【NLP】使用NLP检测和对抗AI假新闻

發(fā)布時(shí)間:2025/3/8 70 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【NLP】使用NLP检测和对抗AI假新闻 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

作者 | MOHD SANAD ZAKI RIZVI?

編譯 | VK?

來源 | Analytics Vidhya

概述

  • 由AI生成的假新聞(神經(jīng)假新聞)對(duì)于我們的社會(huì)可能是一個(gè)巨大的問題

  • 本文討論了不同的自然語言處理方法,以開發(fā)出對(duì)神經(jīng)假新聞的強(qiáng)大防御,包括使用GPT-2檢測(cè)器模型和Grover(AllenNLP)

  • 每位數(shù)據(jù)科學(xué)專業(yè)人員都應(yīng)了解什么是神經(jīng)假新聞以及如何應(yīng)對(duì)它

介紹

假新聞是當(dāng)今社會(huì)關(guān)注的主要問題。它與數(shù)據(jù)驅(qū)動(dòng)時(shí)代的興起并駕齊驅(qū),這并非巧合!

假新聞是如此廣泛,以至于世界領(lǐng)先的字典都試圖以自己的方式與之抗?fàn)帯?/p>

  • Dictionary.com將misinformation'列為2018年度最佳詞匯

  • 牛津詞典幾年前選擇“post-truth”作為年度最佳詞匯

那么機(jī)器學(xué)習(xí)在其中扮演了什么角色呢?我相信你一定聽說過一種機(jī)器學(xué)習(xí)技術(shù),它甚至可以生成模仿名人的假視頻。類似地,自然語言處理(NLP)技術(shù)也被用來生成假文章,這一概念被稱為“神經(jīng)假新聞”。

過去幾年,我一直在自然語言處理(NLP)領(lǐng)域工作,雖然我喜歡取得突破性進(jìn)展的速度,但我也對(duì)這些NLP框架被用來創(chuàng)建和傳播虛假信息的方式深感擔(dān)憂。

高級(jí)的預(yù)訓(xùn)練NLP模型,如BERT,GPT-2,XLNet等,很容易被任何人下載。這就加大了他們被利用來傳播宣傳和社會(huì)混亂的風(fēng)險(xiǎn)。

在這篇文章中,我將對(duì)神經(jīng)假新聞做一個(gè)全面的研究——從定義它是什么,到理解識(shí)別這種錯(cuò)誤信息的某些方法。我們還將詳細(xì)了解這些最先進(jìn)的語言模型本身的內(nèi)部工作原理。

目錄

  • 什么是神經(jīng)假新聞?

  • 大型語言模型如何被濫用來產(chǎn)生神經(jīng)假新聞?

  • 如何檢測(cè)神經(jīng)假新聞?

    • GPT-2探測(cè)器

    • Grover 模型

  • 事實(shí)核查

  • 使用GLTR(HarvardNLP)進(jìn)行統(tǒng)計(jì)分析

  • 利用模型檢測(cè)神經(jīng)假新聞

    • 當(dāng)前檢測(cè)技術(shù)的局限性及未來研究方向

    • 什么是神經(jīng)假新聞?

      我相信你最近聽說過“假新聞”這個(gè)詞。它幾乎在每個(gè)社交媒體平臺(tái)上都廣泛使用。近年來,它已成為社會(huì)和政治威脅的代名詞。但什么是假新聞?

      以下是維基百科的定義:

      ?

      “假新聞(又稱垃圾新聞、假新聞或騙局新聞)是指通過傳統(tǒng)新聞媒體(印刷和廣播)或在線社交媒體故意造謠傳播的新聞形式。”

      ?

      假新聞是指任何事實(shí)上錯(cuò)誤的、歪曲事實(shí)的、病毒性傳播(或可能傳播給目標(biāo)受眾)的新聞。它既可以通過常規(guī)新聞媒體傳播,也可以在Facebook、Twitter、WhatsApp等社交媒體平臺(tái)上傳播。

      假新聞,如“登月是假的”難以區(qū)分的原因是,它仔細(xì)模仿了真實(shí)新聞通常遵循的“風(fēng)格”和“模式”。這就是為什么未經(jīng)訓(xùn)練的人眼很難分辨。

      另外,有趣的是,假新聞已經(jīng)存在了很長很長時(shí)間(實(shí)際上,貫穿我們的歷史)。

      神經(jīng)假新聞

      神經(jīng)假新聞是利用神經(jīng)網(wǎng)絡(luò)模型生成的任何假新聞。或者更正式地定義它:

      ?

      神經(jīng)假新聞是一種有針對(duì)性的宣傳,它緊密模仿由神經(jīng)網(wǎng)絡(luò)生成的真實(shí)新聞的風(fēng)格。

      ?

      下面是OpenAI的GPT-2模型生成的神經(jīng)假新聞的一個(gè)例子:

      “system prompt”是一個(gè)人給模型的輸入,“model completion”是GPT-2模型生成的文本。

      你憑直覺猜到后一部分是機(jī)器寫的嗎?請(qǐng)注意,該模型能夠多么令人難以置信地將提示進(jìn)行擴(kuò)展,形成一個(gè)完整故事,這看起來乍一看令人信服。

      現(xiàn)在,如果我告訴你GPT-2模型可以免費(fèi)供任何人下載和運(yùn)行呢?這正是研究界關(guān)注的問題,也是我決定寫這篇文章的原因。

      大型語言模型如何被濫用來產(chǎn)生神經(jīng)假新聞?

      語言建模是一種NLP技術(shù),模型通過從句子本身理解上下文來學(xué)習(xí)預(yù)測(cè)句子中的下一個(gè)單詞或缺失的單詞。以谷歌搜索為例:

      這是一個(gè)正在運(yùn)行的語言模型的例子。通過讓模型預(yù)測(cè)一個(gè)句子中的下一個(gè)單詞或一個(gè)丟失的單詞,我們讓模型學(xué)習(xí)語言本身的復(fù)雜性。

      這個(gè)模型能夠理解語法是如何工作的,不同的寫作風(fēng)格,等等。這就是為什么這個(gè)模型能夠生成一段對(duì)未經(jīng)訓(xùn)練的人來說可信的文本。當(dāng)同樣的模式被用來產(chǎn)生有針對(duì)性的宣傳來迷惑人們時(shí),問題就出現(xiàn)了。

      下面是一些非常強(qiáng)大的最先進(jìn)的語言模型,它們非常擅長生成文本。

      1.谷歌的BERT

      BERT是一個(gè)由Google設(shè)計(jì)的語言模型,它打破了最先進(jìn)的記錄。該框架是最近各種研究實(shí)驗(yàn)室和公司大力訓(xùn)練和研究大型語言模型的原因。

      BERT和Facebook、XLM、XLNet、DistilBERT等公司的RoBERTa在文本生成方面表現(xiàn)非常出色。

      2.OpenAI的GPT-2模型

      來自O(shè)penAI的GPT、GPT-2和GPT-Large等一系列語言模型,因其文本生成能力而在媒體上引起轟動(dòng)。這些是我們絕對(duì)應(yīng)該知道的一些語言模型。

      3.Grover

      Grover是AllenNLP提出的一個(gè)有趣的新語言模型,它不僅能夠生成文本,而且能夠識(shí)別其他模型生成的偽文本。

      我們將在文章的后面進(jìn)一步了解Grover。

      如何檢測(cè)神經(jīng)假新聞?

      我們?cè)鯓硬拍馨l(fā)現(xiàn)或找出一條新聞是假的?目前,處理神經(jīng)假新聞的方法主要有三種,都取得了很好的效果。

      I.事實(shí)核查

      檢查一條在網(wǎng)上傳播的新聞是假的還是真的,最基本的方式是什么?我們可以簡(jiǎn)單地谷歌它,參考值得信賴的新聞網(wǎng)站,并事實(shí)檢查他們是否有相同或類似的故事。

      盡管這一步讓人感覺像是常識(shí),但它實(shí)際上是確保一條新聞?wù)鎸?shí)性的最有效方法之一。

      但這一步只處理一種虛假新聞:來自單一來源的新聞。如果我們想處理那些已經(jīng)走紅并被我們周圍的媒體大量報(bào)道的新聞呢?

      這通常是一種由神經(jīng)網(wǎng)絡(luò)生成的新聞,因?yàn)樾侣勗凇帮L(fēng)格”和“結(jié)構(gòu)”上與真實(shí)新聞非常相似。

      讓我們學(xué)習(xí)一些處理“機(jī)器生成”文本的方法。

      II.使用GLTR(HarvardNLP)進(jìn)行統(tǒng)計(jì)分析

      GLTR是由HarvardNLP和MIT-IBM Watson實(shí)驗(yàn)室的專家們?cè)O(shè)計(jì)的一個(gè)工具。

      ?

      GLTR用于識(shí)別機(jī)器生成文本的主要方法是通過對(duì)給定文本進(jìn)行的統(tǒng)計(jì)分析和可視化。

      ?

      下面是GLTR接口:

      GLTR檢測(cè)生成的文本的中心思想是使用最初用于生成該文本片段的相同(或類似)模型。

      「原因很簡(jiǎn)單,一個(gè)語言模型直接生成的單詞來自于它從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到的概率分布」

      下面是一個(gè)示例,請(qǐng)注意語言模型如何生成一個(gè)概率分布,作為對(duì)所有可能單詞具有不同概率的輸出:

      由于我們已經(jīng)知道從給定的概率分布中抽取單詞的技術(shù),如最大抽樣、k-max抽樣、波束搜索、核抽樣等,我們可以很容易地交叉檢查給定文本中的單詞是否遵循特定的分布。

      如果是的話,而且在給定的文本中有多個(gè)這樣的單詞,那么這基本上可以確認(rèn)它是機(jī)器生成的。

      讓我們用一個(gè)例子運(yùn)行GLTR來理解這個(gè)概念!

      「安裝GLTR」

      在使用GLTR之前,我們需要在系統(tǒng)上安裝它。首先克隆項(xiàng)目的GitHub存儲(chǔ)庫:

      git clone https://github.com/HendrikStrobelt/detecting-fake-text.git

      克隆存儲(chǔ)庫后,將cd放入其中并執(zhí)行pip安裝:

      cd detecting-fake-text && pip install -r requirements.txt

      接下來,下載預(yù)先訓(xùn)練好的語言模型。可以通過運(yùn)行服務(wù)器來完成此操作:

      python server.py

      GLTR目前支持兩種模型:BERT和GPT-2。你可以在兩者之間進(jìn)行選擇;如果未提供任何選項(xiàng),則使用GPT-2:

      python server.py --model BERT

      這將開始在你的機(jī)器上下載相應(yīng)的預(yù)訓(xùn)練模型。如果你的網(wǎng)速很慢,給它點(diǎn)時(shí)間。

      當(dāng)一切就緒時(shí),服務(wù)器將從端口5001啟動(dòng),你可以直接轉(zhuǎn)到http://localhost:5001訪問它:

      「GLTR是如何工作的」

      假設(shè)我們有下面這段文字。我們要檢查它是否由GPT-2這樣的語言模型生成:

      How much wood would a woodchuck chuck if a woodchuck could chuck wood?

      GLTR將接受這個(gè)輸入并分析GPT-2對(duì)每個(gè)輸入位置的預(yù)測(cè)。

      請(qǐng)記住,語言模型的輸出是該模型知道的所有單詞的排名,因此,我們根據(jù)GPT-2的排名將能夠迅速查看輸入文本中每個(gè)單詞。

      如果我們根據(jù)每個(gè)單詞在前10名中是否是綠色、前100名中是否是黃色和前1000名中是否是紅色對(duì)其進(jìn)行顏色編碼,我們將得到以下輸出:

      現(xiàn)在,我們可以直觀地看到,根據(jù)GPT-2,每個(gè)單詞的可能性有多大。根據(jù)模型,綠色和黃色是很有可能的,而紅色是意料之外的詞,這意味著它們很可能是由人類書寫的。這正是你將在GLTR接口上看到的!

      如果你需要更多的信息,你可以把鼠標(biāo)懸停在“wood”這個(gè)詞上。你會(huì)看到一個(gè)小盒子,上面有這個(gè)位置的前5個(gè)預(yù)測(cè)詞及其概率:

      我鼓勵(lì)你嘗試不同的文本,可以是人類產(chǎn)生的或者機(jī)器產(chǎn)生的。GLTR工具本身也已經(jīng)提供了一些示例:

      你會(huì)注意到,當(dāng)你移到真正的文本時(shí),紅色和紫色的單詞數(shù)量,即不太可能或罕見的預(yù)測(cè),會(huì)增加。

      此外,GLTR還顯示了三種不同的直方圖,其中包含整個(gè)文本的聚合信息(請(qǐng)查看下面的圖片以供參考):

      • 第一個(gè)顯示每個(gè)類別(前10個(gè)、前100個(gè)和前1000個(gè))在文本中出現(xiàn)的單詞數(shù)

      • 第二個(gè)例子說明了前一個(gè)預(yù)測(cè)詞和后一個(gè)預(yù)測(cè)詞的概率之比

      • 第三個(gè)直方圖顯示了預(yù)測(cè)熵的分布。低不確定性意味著模型對(duì)每個(gè)預(yù)測(cè)都非常有信心,而高不確定性意味著低信心

      以下是這些直方圖的幫助:

      • 前兩個(gè)柱狀圖有助于理解輸入文本中的單詞是否從分布的頂部取樣(對(duì)于機(jī)器生成的文本,基本上就是從分布頂部采樣)

      • 最后一個(gè)直方圖說明單詞的上下文是否為檢測(cè)系統(tǒng)所熟知(對(duì)于機(jī)器生成的文本,基本上就是熟知)

      GLTR模型將這些多重可視化和概率分布知識(shí)結(jié)合起來,可以作為一種有效的法醫(yī)學(xué)工具來理解和識(shí)別機(jī)器生成的文本。

      以下是對(duì)GLTR的報(bào)道:

      ?

      “在一項(xiàng)人類受試者研究中,我們發(fā)現(xiàn)GLTR提供的注釋方案在不經(jīng)過任何訓(xùn)練的情況下將人類對(duì)假文本的檢測(cè)率從54%提高到72%。”–Gehrmann等人

      ?

      你可以在最初的研究論文中關(guān)于GLTR的內(nèi)容:https://arxiv.org/pdf/1906.04043.pdf。

      利用模型檢測(cè)神經(jīng)假新聞

      GLTR是相當(dāng)令人印象深刻的,因?yàn)樗褂酶怕史植己涂梢暬暮?jiǎn)單知識(shí)來檢測(cè)神經(jīng)假新聞。但如果我們能做得更好呢

      如果我們能訓(xùn)練一個(gè)大的模型來預(yù)測(cè)一段文字是否是神經(jīng)假新聞呢?

      好吧,這正是我們?cè)谶@一節(jié)要學(xué)的

      GPT-2 探測(cè)器

      GPT-2檢測(cè)器模型是一個(gè)RoBERTa(BERT的變種)模型,它經(jīng)過微調(diào)以預(yù)測(cè)給定的文本是否是使用GPT-2生成的(作為一個(gè)簡(jiǎn)單的分類問題)。

      RoBERTa是Facebook人工智能研究開發(fā)的一個(gè)大型語言模型,是對(duì)Google的BERT的改進(jìn)。這就是為什么這兩個(gè)框架有很大的相似之處。

      這里需要注意的一點(diǎn)是,盡管RoBERTa的模型結(jié)構(gòu)與GPT-2的模型結(jié)構(gòu)非常不同,因?yàn)榍罢呤且粋€(gè)屏蔽語言模型(如BERT),與GPT-2不同,前者在本質(zhì)上不是生成的。GPT-2在識(shí)別由它生成的神經(jīng)假新聞方面仍然顯示了大約95%的準(zhǔn)確性。

      這個(gè)模型的另一個(gè)優(yōu)點(diǎn)是,與我們?cè)诒疚闹杏懻摰钠渌椒ㄏ啾?#xff0c;它的預(yù)測(cè)速度非常快。

      讓我們看看它!

      「安裝GPT-2探測(cè)器模型」

      這個(gè)探測(cè)器模型的安裝步驟非常簡(jiǎn)單,就像GLTR一樣。

      我們首先需要克隆存儲(chǔ)庫:

      git clone https://github.com/openai/gpt-2-output-dataset.git

      然后

      cd gpt-2-output-dataset/ && pip install -r requirements.txt

      接下來,我們需要下載預(yù)訓(xùn)練好的語言模型。通過運(yùn)行以下命令執(zhí)行此操作:

      wget https://storage.googleapis.com/gpt-2/detector-models/v1/detector-base.pt

      這一步可能需要一些時(shí)間。完成后,你可以啟動(dòng)探測(cè)器:

      python -m detector.server detector-base.pt --port 8000

      一切就緒后,服務(wù)器將從端口8000啟動(dòng),你可以直接轉(zhuǎn)到http://localhost:8000訪問它!

      有了這個(gè),你就可以嘗試GPT-2探測(cè)器模型了!

      「識(shí)別神經(jīng)假新聞」

      探測(cè)器模型的接口非常簡(jiǎn)單。我們只需復(fù)制粘貼一段文本,它就會(huì)告訴我們它是“真的”還是“假的”,這取決于它是否由機(jī)器(GPT-2模型)生成。

      以下是我使用Transformers 2.0庫從GPT-2生成的文本:

      如你所見,盡管文本看起來很有說服力和連貫性,但模型直接將其歸類為“假的”,準(zhǔn)確率為99.97%。

      這是一個(gè)非常有趣的工具使用,我建議你去嘗試不同的例子,生成和未生成的文本,看看它如何執(zhí)行!

      在我的例子中,我通常注意到這個(gè)模型只能很好地識(shí)別GPT-2模型生成的文本。這與Grover完全不同,Grover是我們將在下一節(jié)中學(xué)習(xí)的另一個(gè)框架。Grover可以識(shí)別由各種語言模型生成的文本。

      你可以在Facebook的博客上關(guān)于RoBERTa的架構(gòu)和訓(xùn)練方法。如果你對(duì)如何實(shí)現(xiàn)檢測(cè)器模型感到好奇,可以在GitHub上檢查代碼。

      Grover

      Grover是我在本文討論的所有選項(xiàng)中最喜歡的工具。與GLTR和GPT-2檢測(cè)器模型僅限于特定模型不同,它能夠?qū)⒁欢挝谋咀R(shí)別為由大量多種語言模型生成的偽文本。

      作者認(rèn)為,檢測(cè)一段文本作為神經(jīng)假新聞的最佳方法是使用一個(gè)模型,該模型本身就是一個(gè)能夠生成此類文本的生成器。用他們自己的話說:

      ?

      “生成器最熟悉自己的習(xí)慣、怪癖和特性,也最熟悉類似人工智能模型的特性,特別是那些接受過類似數(shù)據(jù)訓(xùn)練的人工智能模型。”–Zellers等人

      ?

      乍一看聽起來有違直覺,不是嗎?為了建立一個(gè)能夠檢測(cè)出神經(jīng)假新聞的模型,他們繼續(xù)開發(fā)了一個(gè)模型,這個(gè)模型一開始就非常擅長生成這樣的假新聞!

      聽起來很瘋狂,但背后有自己的一個(gè)科學(xué)邏輯。

      Grove是怎么工作的?

      「問題定義」

      Grover將檢測(cè)神經(jīng)假新聞的任務(wù)定義為一個(gè)具有兩個(gè)模型的對(duì)抗游戲:

      • 設(shè)置中有兩個(gè)模型用于生成和檢測(cè)文本

      • 對(duì)抗模型的目標(biāo)是產(chǎn)生虛假的新聞,這些新聞可以是病毒性傳播的,或者對(duì)人類和驗(yàn)證模型都有足夠的說服力

      • 驗(yàn)證器對(duì)給定文本是真是假進(jìn)行分類:

      • 驗(yàn)證者的訓(xùn)練數(shù)據(jù)包括無限的真實(shí)新聞,但只有一些來自特定對(duì)手的假新聞

      • 這樣做是為了復(fù)制真實(shí)世界的場(chǎng)景,在真實(shí)世界中,對(duì)手提供的虛假新聞數(shù)量與真實(shí)新聞相比要少得多

      這兩種模式的雙重目標(biāo)意味著,攻擊者和捍衛(wèi)者之間在“競(jìng)爭(zhēng)”,既產(chǎn)生虛假新聞,又同時(shí)發(fā)現(xiàn)虛假新聞。隨著驗(yàn)證模型的改進(jìn),對(duì)抗模型也在改進(jìn)。

      神經(jīng)假新聞的條件生成

      神經(jīng)假新聞的最明顯特征之一是它通常是“有針對(duì)性的”內(nèi)容,例如點(diǎn)擊誘餌或宣傳,大多數(shù)語言模型(例如BERT等)都不允許我們創(chuàng)建這種受控文本。

      ?

      Grover支持“受控”文本生成。這僅僅意味著除了模型的輸入文本之外,我們可以在生成階段提供額外的參數(shù)。這些參數(shù)將引導(dǎo)模型生成特定的文本。

      ?

      但這些參數(shù)是什么?考慮一下新聞文章——有助于定義新聞文章的結(jié)構(gòu)參數(shù)是什么?以下是Grover的作者認(rèn)為生成文章所必需的一些參數(shù):

      • 領(lǐng)域:文章發(fā)布的地方,它間接地影響樣式

      • 日期:出版日期

      • 作者:作者姓名

      • 標(biāo)題:文章的標(biāo)題,這影響到文章的生成

      • 正文:文章的正文

      結(jié)合所有這些參數(shù),我們可以通過聯(lián)合概率分布對(duì)一篇文章進(jìn)行建模:

      現(xiàn)在,我將不再深入討論如何實(shí)現(xiàn)這一點(diǎn)的基礎(chǔ)數(shù)學(xué),因?yàn)檫@超出了本文的范圍。但是,為了讓你了解整個(gè)生成過程的樣子,這里有一個(gè)示意圖:

      下面是流程:

      • 在a行中,正文由部分上下文生成(缺少作者字段)

      • 在b行中,模型生成作者

      • 在c行中,該模型重新生成提供的標(biāo)題,使之更為真實(shí)

      架構(gòu)和數(shù)據(jù)集

      Grover使用與GPT2相同的架構(gòu):

      • 有三種型號(hào)。最小的模型Grover-Base有12層,1.24億個(gè)參數(shù),與GPT和BERT-Base相當(dāng)

      • 下一個(gè)模型Grover Large有24個(gè)層和3.55億個(gè)參數(shù),與BERT Large相當(dāng)

      • 最大的模型Grover Mega有48層和15億個(gè)參數(shù),與GPT2相當(dāng)

      用來訓(xùn)練Grover的RealNews數(shù)據(jù)集是Grover的作者自己創(chuàng)建的。數(shù)據(jù)集和創(chuàng)建它的代碼是開源的,因此你可以下載并按原樣使用它,也可以按照Grover的規(guī)范生成自己的數(shù)據(jù)集。

      安裝Grover

      你可以按照安裝說明安裝Grover,并在自己的機(jī)器上運(yùn)行它的生成器和檢測(cè)器工具。請(qǐng)記住,該模型的大小是巨大的(壓縮后還有46.2G!)所以在你的系統(tǒng)上安裝它可能是一個(gè)挑戰(zhàn)。

      這就是為什么我們會(huì)使用在線檢測(cè)器和生成器工具。

      使用Grover進(jìn)行生成和檢測(cè)

      你可以通過以下鏈接訪問該工具:

      https://grover.allenai.org/

      你可以玩一下Generate選項(xiàng),看看Grover生成神經(jīng)假新聞的能力有多強(qiáng)。因?yàn)槲覀冇信d趣檢查Grover的檢測(cè)能力,所以讓我們轉(zhuǎn)到“檢測(cè)”選項(xiàng)卡(或轉(zhuǎn)到以下鏈接):

      https://grover.allenai.org/detect
      案例研究1:

      我們要測(cè)試的文本與前面看到的GPT-2生成的文本相同:

      當(dāng)你點(diǎn)擊“檢測(cè)假新聞”按鈕時(shí),你會(huì)注意到Grover很容易將其識(shí)別為機(jī)器生成的:

      案例研究2:

      我們要測(cè)試的下一篇文章來自紐約時(shí)報(bào):

      你會(huì)發(fā)現(xiàn)格羅弗確實(shí)能認(rèn)出它是一個(gè)人寫的:

      案例研究3:

      這些都是簡(jiǎn)單的例子。如果我給它一段技術(shù)性的文字怎么辦?像技術(shù)博客里的解釋

      對(duì)于我自己提供的文本,Grover失敗了,因?yàn)樗鼪]有接受過此類技術(shù)文章的訓(xùn)練:

      但是GPT-2探測(cè)器模型卻起作用了,因?yàn)樗窃诟鞣N各樣的網(wǎng)頁上被訓(xùn)練的(800萬!)。

      這只是為了表明沒有一個(gè)工具是完美的。

      案例研究4:

      她是我們要做的最后一個(gè)實(shí)驗(yàn)。我們將測(cè)試機(jī)器生成的新聞,這些新聞不是“假的”,只是自動(dòng)生成新聞的一個(gè)例子。本文摘自華盛頓郵報(bào):

      有趣的是,GPT-2探測(cè)器模型說它根本不是機(jī)器生成的新聞:

      但同時(shí),Grover能夠識(shí)別出它是機(jī)器編寫的文本,概率略低(但它還是能找出答案!):

      現(xiàn)在,不管你是否認(rèn)為這是“假”新聞,事實(shí)是它是由機(jī)器生成的。如何對(duì)這類文本進(jìn)行分類將取決于你的目標(biāo)是什么以及你的項(xiàng)目試圖實(shí)現(xiàn)什么。

      ?

      簡(jiǎn)而言之,檢測(cè)神經(jīng)假新聞的最佳方法是綜合運(yùn)用所有這些工具并得出比較結(jié)論。

      ?

      當(dāng)前虛假新聞檢測(cè)技術(shù)的局限性及未來研究方向

      很明顯,目前的檢測(cè)技術(shù)還不完善,還有發(fā)展的空間。麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室(CSAIL)最近對(duì)現(xiàn)有的神經(jīng)假新聞檢測(cè)方法進(jìn)行了研究,他們的一些發(fā)現(xiàn)令人大開眼界。

      現(xiàn)有神經(jīng)假新聞檢測(cè)技術(shù)的局限性

      研究的主要結(jié)論是,GLTR、Grover等方法用于神經(jīng)假新聞檢測(cè)的現(xiàn)有方法是不完全的。

      這是因?yàn)閮H僅發(fā)現(xiàn)一條文本是否是“機(jī)器生成”是不夠的,可能有一條合法的新聞是通過諸如自動(dòng)完成、文本摘要等工具機(jī)器生成的。

      例如,著名的寫作應(yīng)用程序Grammarly使用某種形式的GPT-2來幫助糾正文本中的語法錯(cuò)誤。

      這類案例的另一個(gè)例子是本文前一節(jié)的案例研究4,其中一個(gè)程序被《華盛頓郵報(bào)》用來生成體育新聞。

      反之,也可能存在被攻擊者輕微破壞/修改的人工文本,根據(jù)現(xiàn)有方法,這些文本將被歸類為非神經(jīng)假新聞。

      下面是一個(gè)例子,總結(jié)了探測(cè)器模型的上述困境:

      從上圖中可以清楚地看到,由于生成的神經(jīng)假新聞和真實(shí)新聞的特征空間非常遠(yuǎn),所以模型很容易對(duì)哪一個(gè)是假的進(jìn)行分類。

      此外,當(dāng)模型必須在真實(shí)生成的新聞和神經(jīng)假新聞之間進(jìn)行分類時(shí)(如我們之前看到的案例研究4),由于兩者的特征空間非常接近,因此模型無法檢測(cè)。

      當(dāng)模型必須區(qū)分生成的人工新聞和經(jīng)過一點(diǎn)修改而變成假的新聞時(shí),也會(huì)看到同樣的行為。

      我不想詳細(xì)介紹,但作者進(jìn)行了多次實(shí)驗(yàn)得出這些結(jié)論,你可以閱讀他們的論文了解更多:https://arxiv.org/pdf/1908.09805.pdf。

      ?

      這些結(jié)果使作者得出結(jié)論,為了定義/檢測(cè)神經(jīng)假新聞,我們必須考慮真實(shí)性,而不是來源(來源,無論是機(jī)器寫的還是人類寫的)。

      ?

      我認(rèn)為這是一個(gè)讓我們大開眼界的結(jié)論。

      未來的研究方向是什么

      處理神經(jīng)假新聞問題的一個(gè)步驟是,劍橋大學(xué)和亞馬遜去年發(fā)布了FEVER,這是世界上最大的事實(shí)核查數(shù)據(jù)集,可用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)檢測(cè)假新聞。

      盡管由麻省理工學(xué)院的同一個(gè)研究小組(Schuster等人)分析FEVER時(shí),他們發(fā)現(xiàn)FEVER數(shù)據(jù)集存在某些偏差,使得神經(jīng)網(wǎng)絡(luò)更容易通過文本中的模式來檢測(cè)假文本。當(dāng)他們糾正了數(shù)據(jù)集中的一些偏差時(shí),他們發(fā)現(xiàn)模型的準(zhǔn)確性如預(yù)期的那樣急劇下降。

      然后,他們將GitHub上對(duì)稱的修正后的數(shù)據(jù)集熱開源,作為其他研究人員測(cè)試其模型的基準(zhǔn),我認(rèn)為這對(duì)正在積極嘗試解決神經(jīng)假新聞問題的整個(gè)研究界來說是一個(gè)好的舉措。

      如果你有興趣找到更多關(guān)于他們的方法和實(shí)驗(yàn)的信息,請(qǐng)閱讀他們的原始論文:https://arxiv.org/pdf/1908.05267.pdf。

      ?

      因此,創(chuàng)建大規(guī)模無偏數(shù)據(jù)集,我認(rèn)為是未來研究如何處理神經(jīng)假新聞方向的良好第一步,因?yàn)殡S著數(shù)據(jù)集的增加,研究人員和組織建立模型以改進(jìn)現(xiàn)有基準(zhǔn)的興趣也會(huì)增加。這和我們過去幾年在NLP(GLUE, SQUAD)和CV(ImageNet)中看到的一樣。

      ?

      除此之外,當(dāng)我考慮到我們所遇到的大多數(shù)研究時(shí),這里有一些我們可以進(jìn)一步探索的方向:

    • 我個(gè)人認(rèn)為,像Grover和GLTR這樣的工具是檢測(cè)神經(jīng)假新聞的良好起點(diǎn),它們?yōu)槲覀內(nèi)绾蝿?chuàng)造性地利用現(xiàn)有知識(shí)構(gòu)建能夠檢測(cè)假新聞的系統(tǒng)樹立了榜樣。因此,我們需要在這個(gè)方向上進(jìn)行進(jìn)一步的研究,改進(jìn)現(xiàn)有的工具,并不僅針對(duì)數(shù)據(jù)集,而且在現(xiàn)實(shí)環(huán)境中更有效地驗(yàn)證它們。

    • FEVER數(shù)據(jù)集的發(fā)布是一個(gè)值得歡迎的舉動(dòng),它將有助于我們?cè)诟鞣N環(huán)境中探索和構(gòu)建更多這樣的帶有假新聞的數(shù)據(jù)集,因?yàn)檫@將直接推動(dòng)進(jìn)一步的研究。

    • 通過模型發(fā)現(xiàn)文本的準(zhǔn)確性是一個(gè)具有挑戰(zhàn)性的問題,但是我們需要以某種方式構(gòu)造它,以便更容易創(chuàng)建有助于訓(xùn)練能夠根據(jù)文本的真實(shí)性對(duì)其進(jìn)行身份驗(yàn)證的模型的數(shù)據(jù)集。因此,這方面的進(jìn)一步研究是值得歡迎的。

    • 正如Grover和GLTR的作者正確地提到的那樣,我們需要通過在未來發(fā)布大型語言模型(如GPT-2、Grover等)來繼續(xù)研究社區(qū)的開放性,因?yàn)橹挥挟?dāng)我們知道對(duì)手有多強(qiáng)大時(shí),我們才能建立強(qiáng)大的防御。

    • 原文鏈接:https://www.analyticsvidhya.com/blog/2019/12/detect-fight-neural-fake-news-nlp/

      ?------------------------------------------------

      看到這里,說明你喜歡這篇文章,請(qǐng)點(diǎn)擊「在看」或順手「轉(zhuǎn)發(fā)」「點(diǎn)贊」。

      往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機(jī)器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印機(jī)器學(xué)習(xí)在線手冊(cè)深度學(xué)習(xí)筆記專輯《統(tǒng)計(jì)學(xué)習(xí)方法》的代碼復(fù)現(xiàn)專輯 AI基礎(chǔ)下載機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)專輯獲取一折本站知識(shí)星球優(yōu)惠券,復(fù)制鏈接直接打開:https://t.zsxq.com/662nyZF本站qq群1003271085。加入微信群請(qǐng)掃碼進(jìn)群(如果是博士或者準(zhǔn)備讀博士請(qǐng)說明):

    總結(jié)

    以上是生活随笔為你收集整理的【NLP】使用NLP检测和对抗AI假新闻的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。