日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

迁移学习NLP:BERT、ELMo等直观图解

發布時間:2025/3/21 编程问答 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 迁移学习NLP:BERT、ELMo等直观图解 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

2018年是自然理的折點,能捕捉潛在意和關系的方式表達單詞和句子的概念性理解正在迅速展。此外,NLP社區已出現了非常大的件,你可以在自己的模型和管道中自由下和使用(它被稱NLPImageNet時刻


個時刻中最新里程碑是發布BERT,它被描述NLP一個新代的開始。BERT是一個模型,它打破了前幾個模型理基于言的任記錄模型的布后不久,團隊還開放了模型的代,并提供了已在大量數據集上訓練過的模型的下版本。這是一個重大的發展,因為它使任何人都可以構建一個涉及語言處理的機器學習模型,他們成功的將這個強大的工具變成了一個易于使用的組件,從而節省了訓練NLP模型所需的時間,精力和資源


兩種不同的BERT。你可以下1預訓練的模型(它是在未注的數據上訓練),在2中是針對特殊場景行微調

BERT是建立在最近NLP社區中涌現的一些聰明的想法之上,包括但不限于半監督序列學習Andrew DaiQuoc LeELMo(由Matthew Peters和來自AI2研究人員和UW CSEULMFiT(由fast.ai創始人Jeremy HowardSebastian Ruder提供OpenAI轉換器(由OpenAI研究人員RadfordNarasimhanSalimansSutskever提供和TransformerVaswani等人

需要注意的一些概念才能完全了解BERT的內容。因此,讓我們首先看一下在查看模型本身所涉及的概念之前可以使用BERT的場景。

示例:句子分

BERT最擅長的是分類單個文本,這個模型看起來像這樣:


為了訓練這樣的模型,你必須訓練分類器,在訓練階段BERT模型發生的變化很小。該過程稱為微調,并且整個過程是源于半監督序列學習和ULMFiT。

既然我們在討論分類器,那么我們就處于機器學習的監督學習領域。這意味著我們需要一個標記的數據集來訓練這樣的模型。以垃圾郵件分類器示例,標記的數據集將是電子郵件和標簽的列表(“垃圾郵件”或“非垃圾郵件”)。


這種用例的其他示例包括:

1、情分析

輸入:電影/產品評論。輸出:評論是正面還是負面

示例數據集:SST

2、事實查證

輸入:句子。輸出:不索

更夸張/前沿的例子:

輸入:是否進行索賠。輸出:

Full Fact是一個公眾利益建立自實檢查工具的組織。他的部分管道其實是一個分器,它可以取新文章并檢測聲明(將文本分類為聲明不聲明),以此行事實驗證

模型架構

現在你已經了解了如何使用BERT的用例,接下來讓我們仔細看看它是如何工作的。


首先介紹BERT的兩種型號:

l?? BERT BASEOpenAI Transformer的尺寸相當,性價比很高;

l?? BERT LARGE一個非常大的模型,它的性能最好;

BERT基本上是訓練有素的轉換器(Transformer)編碼器堆棧。現在是你閱讀The Illustrated Transformer的好時機,該文章解釋了Transformer模型-BERT的基本概念以及我們接下來要討論的概念。


兩種BERT模型都有大量的編碼器層(本文稱之為Transformer Blocks),其中Base版本為12個,Large版本為24個。它們還具有更大的前饋網絡(分別為768和1024個隱藏單元)以及比初始論文中的轉換器更多attention heads(分別為12和16)(初始論文的轉換器中有6個編碼器層,512個隱藏單元,和8個attention heads)。

模型


第一個接口輸入提供了一個特殊的接口[CLS],原因將在后面變得明顯,CLS在這里代表分類。

就像轉換器的香草編碼器一樣,BERT采用一系列字作為輸入。每一層都應用自我關注,并通過前饋網絡傳遞其結果,然后將其交給下一個編碼器。


在架構方面,到目前為止,這與轉換器完全相同。

模型

每個位置輸出大小為hidden_??size的矢量(BERT Base中的768)。對于我們上面看過的句子分類示例,我們只關注第一個位置的輸出(我們將特殊的接口[CLS]標記傳遞到)。


該向量現在可以用作我們選擇的分類器的輸入,通使用單層器,這樣效果就能達到我們想要的。


如果你有更多標簽(例如,如果你是使用“垃圾郵件”,“非垃圾郵件”,“社交”和“促銷”標記電子郵件),你只需調整分類器網絡以獲得更多輸出神經元即可,然后通過softmax。

網相似操作

對于那些具有計算機視覺背景的人來說,這個矢量切換應該讓人聯想到VGGNet等網絡的卷積部分與網絡末端的完全連接的分類部分之間發生的事情。


嵌入(Embedding)的新

到目前為止,詞嵌入一直是影響NLP模型處理語言的主要力量。Word2Vec和Glove等方法已被廣泛用于此類任務。讓我們回顧一下之前是如何使用它們的。

Word嵌入是個啥?

對于要由機器學習模型處理的詞,它們需要以某種形式的數字表示,這樣模型才可以在計算中使用。Word2Vec讓我們可以使用一個向量(一個數字列表)以一種捕獲語義相關關系的方式正確表示單詞(例如,判斷單詞是相似的,判斷還是在它們之間具有的關系,如“開羅”和“埃及”之間的關系)以及句法或基于語法的關系(例如“was”和“is”之間的關系)。

該領域的研究者很快意識到,使用經過大量文本數據預訓練的嵌入技術,而不將模型與經常是小型數據集的模型一起訓練,這是一個好主意。因此,你可以下載Word2Vec或GloVe預訓練生成的單詞列表及其嵌入。


GloVe詞嵌入中“stick”-200個浮點數的向量。?

ELMo問題

如果我們使用GloVe,那么“stick”這個詞將由一個向量表示,無論上下文是什么。但是,許多NLP研究人員Peters等人,2017McCann等人,2017Peters等人,2018年在ELMo論文中發現“stick”有多個含義,這取決于它的使用位置。為什么不根據它所使用的上下文給它一個嵌入呢?這樣既捕獲該上下文中的單詞含義以及其他上下文信息。因此,語境化嵌入詞誕生了!


語境化詞嵌入可以根據它們在句子的上下文中攜帶的含義給出單詞不同的嵌入

ELMo不是對每個單詞使用固定嵌入,而是在為其中的每個單詞分配嵌入之前查看整個句子,它使用在特定任務上訓練的雙向LSTM來創建這些嵌入。


ELMo在NLP背景下向預訓練邁出了重要一步。ELMo LSTM將使用我們數據集語言中的大量數據集進行訓練,然后我們可以將其用作需要處理語言的其他模型中的組件。

ELMo的秘密是什么?

ELMo通過訓練來預測單詞序列中的下一個單詞,這是一項稱為獲得語言理解語言建模的任務。這很方便,因為我們擁有大量的文本數據,這樣的模型可以在不需要標簽的情況下學習。


ELMo預訓練過程中的一個過程:給定輸入,預測下一個最可能的單詞。在hang單詞出現之后,它將為諸“out”單詞賦予比camera更高的概率。

我們可以看到每個展開的LSTM步驟的隱藏狀態都是從ELMo的頭部后面突出。在完成預訓練之后,這些在嵌入式proecss可以派上用場。

ELMo實際上更進一步,因為雙向LSTM,這意味著它的語言模型不僅具有下一個詞的感覺,而且還有前一個詞。


ELMo以某種方式將藏狀(和初始嵌入)合在一起來提出情境化嵌入(接后加求和)。


ULM-FiT:在NLP中使用遷移

ULM-FiT引入了有效利用模型在預訓練期間學到的內容的方法,這不僅僅是嵌入,而且是上下文嵌入。ULM-FiT引入了語言模型和流程,從而有效地微調該語言模型以執行各種任務。

NLP可能與計算機視覺一樣,有了一種方法來進行轉移學習。

The Transformer:超越LSTMs

Transformer論文和代碼的發布,以及它在機器翻譯等任務上取得的成果開始讓一些人認為它們是LSTM的替代品。事實上Transformer比LSTM更好地處理長期依賴性。

Transformer的編碼器-解碼器結構使其非常適合機器翻譯。但是你如何將它用于句子分類?你如何使用它來預訓練可以針對其他任務進行微調的語言模型(這些任務就是被該領域稱為使用預訓練模型或組件的監督學習任務)。

OpenAI Transformer預訓練用于言建模的Transformer

事實證明,我們不需要整個Transformer來為NLP任務采用轉移學習和精細可調語言模型,我們可以只使用Transformer的解碼器。解碼器是一個很好的選擇,因為它是語言建模(預測下一個單詞)的必備選擇,它是為掩蓋未來的接口而構建的。


OpenAI TransformerTransformer的解器堆棧組

該模型堆疊了十二個解碼器層。由于在該設置中沒有編碼器,因此這些解碼器層將不具有香草Transformer解碼器層具有的編碼器。然而,它仍然會有自我關注層。

通過這種結構,我們可以繼續在同一語言建模任務上訓練模型:使用大量(未標記)數據集預測下一個單詞。只是使用7000本書的文字,讓它學習!書籍非常適合這類任務,因為它允許模型學習關聯相關信息,即使它們被大量文本分開。例如,當你使用推文或文章進行訓練時,你無法獲得這些信息。


現在,OpenAI Transformer好接受訓練,預測7,000書組成的數據集上的下一個單詞

將學習能力轉移到下游任

既然OpenAI Transformer已經過預先訓練,并且其層也經過調整以合理地處理語言,我們就可以開始將它用于下游任務。讓我們首先看一下句子分類(將電子郵件分類為“垃圾郵件”或“非垃圾郵件”):


如何使用訓練OpenAI Transformer進行句子分類

OpenAI論文概述了許多輸入轉換,以處理不同類型任務的輸入。下圖顯示了模型的結構和輸入轉換,以執行不同的任務。


BERT:從解器到編碼

openAI的Transformer為我們提供了基于Transformer的可調預訓練模型。但是從LSTM到Transformer的過渡中缺少了一些東西,因為ELMo的語言模型是雙向的,但openAI的Transformer只訓練向前語言模型。我們能否建立一個基于Transformer的模型,其語言模型同時向前和向后?

蒙面言模型(NLM:Masked Language Model)

我們將使用Transformer編碼器”,BERT說。

這很瘋狂”,Ernie回答說,“每個人都知道雙向調節會讓每個詞在多層次的背景下間接地審視自己。”

我們將使用蒙面工具”,BERT自信地說。


BERT言建模任掩蓋了入中15%的單詞,并要求模型預測缺失的單詞

找到正確的任務來訓練Transformer堆棧的編碼器是一個復雜的障礙,BERT通過采用早期文獻中的“蒙面語言模型”概念(稱為完成任務)來解決。

除了掩蓋15%的輸入之外,BERT還混合了一些東西,以改善模型后來如何微調。有時它會隨機用另一個單詞替換一個單詞,并要求模型預測該位置的正確單詞。

兩個句子的任務(Two-sentence Tasks)

如果你回顧一下OpenAI的Transformer處理不同任務的輸入變換,你會注意到一些任務要求模型具有說出兩個句子的能力(例如,它們是否只是對方的復述?給出一個維基百科條目作為輸入,以及關于該條目作為另一個輸入的問題。)。

為了使BERT更好地處理多個句子之間的關系,預訓練過程包括一個額外的任務:給定兩個句子(A和B),B可能是跟隨A的句子,或不是?


由于BERT實際上使用WordPieces接口而不是單詞,因此標記化在此形中化了因此有些單詞被分解為較小的

?

特定任-模型

BERT論文展示了將BERT用于不同任務的多種方法。


BERT用于特征提取

微調不是使用BERT的唯一方法。就像ELMo一樣,你可以使用預先訓練的BERT來創建語境化詞嵌入。然后,你可以將這些嵌入提供給現有模型-該過程論文已經證實可以產生結果,在命名實體識別等任務上應用微調BERT并不遠。


哪個向量最適合作上下文嵌入?我認為這取決于任。我們考察了六種選擇(與微調模型相比,得分96.4):


BERT延伸

使用BERT的最佳方式是通過BERT FineTuningGoogle Colab托管的Cloud TPU筆記本。如果你之前從未使用過云TPU,那么這也是嘗試它們的良好起點,以及BERT代碼也適用于TPU,CPU和GPU。

下一步是查看BERT倉庫中的代碼:

l?? 該模型在modeling.pyclass BertModel)中構建,與vanilla Transformer編碼器完全相同

l?? run_classifier.py是微調過程的一個示例。它還構建了監督模型的分類層,如果要構建自己的分類器,請查看create_model()該文件中的方法。

l?? 可以下載幾種預先訓練的模型,它們跨越了BERT Base和BERT Large,以及英語,中文等語言,以及涵蓋102種語言的多語言模型,這些語言在維基百科上進行了訓練。

l?? BERT不會將單詞視為標記,相反,它注意者WordPiecestokenization.py是將你的單詞轉換為適合BERTwordPieces標記器。

l?? 你還可以查看BERTPyTorch實現。該AllenNLP庫使用此實現允許使用的嵌入BERT與任何模型。


本文由阿里云云棲社區組織翻譯。

文章原標題《The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning)

作者:Jay Alammar?譯者:虎說八道,審校:。

文章為簡譯,更為詳細的內容,請查看原文

總結

以上是生活随笔為你收集整理的迁移学习NLP:BERT、ELMo等直观图解的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 小视频国产| 亚洲网站免费 | 亚洲综合av一区二区三区 | 黄色一级免费观看 | 亚洲天堂一区二区 | 中文字幕激情小说 | 91黄色小视频 | 欧美激情亚洲综合 | 99精品视频免费版的特色功能 | 国产手机在线观看 | 久久久久蜜桃 | 99精彩视频| 亚洲欧洲综合av | 大地资源二中文在线影视观看 | 色屁屁在线 | 老司机福利av | 激情内射亚洲一区二区三区爱妻 | 亚洲国产中文字幕在线观看 | 懂爱av| 色伊人网 | 亚洲成在线观看 | 亚洲国产一区二区三区a毛片 | 久久综合狠狠综合久久综合88 | 免费日批网站 | 国产一级二级 | 婷婷激情综合网 | 亚洲欧美在线一区 | 亚洲日本网站 | 欧美一区三区二区在线观看 | 国产嫩草av | 丝袜 亚洲 另类 国产 制服 | 韩国美女一区 | 中文字幕日韩国产 | 亚洲麻豆视频 | 精品日韩视频 | 日本香蕉视频 | 天天操人人 | 美女操操操 | 在线看片 | 日本韩国免费观看 | 黄色欧美大片 | 日韩欧美国产网站 | 亚洲啪av永久无码精品放毛片 | 女人色极品影院 | 成人网视频 | 国产白浆在线 | 狠狠gao| 麻豆网站在线免费观看 | 已满18岁免费观看电视连续剧 | 超碰88| 国产福利第一页 | 在线观看免费国产视频 | 久久麻豆精品 | 成人在线观看网址 | 成人综合站 | 91亚洲高清 | 欧美成人h版 | 亚洲av午夜精品一区二区三区 | 色噜噜一区二区三区 | 国产偷v国产偷v亚洲高清 | 涩涩涩999| 久久在线视频精品 | 操久久| 亚洲精选一区 | 76少妇精品导航 | 国产在线视频你懂的 | 九九爱精品视频 | www.色午夜.com | 国产黄色大片视频 | 欧美日韩国产精品一区二区 | 国产一级大片在线观看 | 欧美色综合天天久久综合精品 | 成人做受黄大片 | 中文字幕av播放 | 91手机在线视频 | 精品在线免费观看视频 | 亚洲码中文 | 中文字幕日韩在线视频 | 双性高h1v1| 久久视频热 | 波多野结衣视频免费在线观看 | 在线欧美| 成人毛片视频在线观看 | 男人av资源网| 搡老熟女老女人一区二区 | 五月婷婷丁香在线 | 成人做受视频试看60秒 | 成人性生交大全免 | 人人草在线视频 | 亚洲精品乱码久久久久久麻豆不卡 | 日本在线观看一区 | 无套内谢少妇毛片 | 波多野结衣之双调教hd | 极品色综合 | 噼里啪啦免费观看 | 久久精品人妻一区二区 | 欧美乱妇18p | 用舌头去添高潮无码视频 | 国产又黄又 |