日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

[深度学习] 自然语言处理 --- BERT模型原理

發布時間:2023/12/15 pytorch 56 豆豆
生活随笔 收集整理的這篇文章主要介紹了 [深度学习] 自然语言处理 --- BERT模型原理 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一 BERT簡介

NLP:自然語言處理(NLP)是信息時代最重要的技術之一。理解復雜的語言也是人工智能的重要組成部分。Google AI 團隊提出的預訓練語言模型 BERT(Bidirectional Encoder Representations from Transformers)

BERT,全稱是 Pre-training of Deep Bidirectional Transformers for Language Understanding。注意其中的每一個詞都說明了 BERT 的一個特征。

  • Pre-training 說明 BERT 是一個預訓練模型,通過前期的大量語料的無監督訓練,為下游任務學習大量的先驗的語言、句法、詞義等信息。
  • Bidirectional 說明 BERT 采用的是雙向語言模型的方式,能夠更好的融合前后文的知識。
  • Transformers 說明 BERT 采用 Transformers 作為特征抽取器。
  • 在 11 項自然語言理解任務上刷新了最好指標,可以說是近年來 NLP 領域取得的最重大的進展之一。BERT 論文也斬獲 NLP 領域頂會 NAACL 2019 的最佳論文獎,BERT 的成功也啟發了大量的后續工作,不斷刷新了 NLP 領域各個任務的最佳水平。有 NLP 學者宣稱,屬于 NLP 的 ImageNet 時代已經來臨。

    想象一下——你正在從事一個非常酷的數據科學項目,并且應用了最新的最先進的庫來獲得一個好的結果!幾天后,一個新的最先進的框架出現了,它有可能進一步改進你的模型。

    這不是一個假想的場景——這是在自然語言處理(NLP)領域工作的真正現實!過去的兩年的突破是令人興奮的。

    谷歌的BERT就是這樣一個NLP框架。我敢說它可能是近代最有影響力的一個(我們很快就會知道為什么)。

    NLP常見的任務主要有:中文自動分詞、句法分析、自動摘要、問答系統、文本分類、指代消解、情感分析等。

    毫不夸張地說,BERT極大地改變了NLP的格局。想象一下,使用一個在大型未標記數據集上訓練的單一模型,然后在11個單獨的NLP任務上獲得SOTA結果。所有這些任務都需要fine-tuning。BERT是我們設計NLP模型的一個結構性轉變。

    二 什么是BERT?

    你可能大概聽說過BERT,你看到過它是多么不可思議,它是如何潛在地改變了NLP的前景。但是BERT到底是什么呢?

    BERT背后的研究團隊是這樣描述NLP框架的:

    "BERT代表Transformers的雙向編碼器。它被設計為通過對左右的上下文的聯合來預訓練未標記文本得到深層的雙向表示。因此,只需一個額外的輸出層,就可以對預訓練的BERT模型進行微調,從而為各種NLP任務創建SOTA結果。"

    作為一開始,這聽起來太復雜了。但是它確實總結了BERT的出色表現,因此讓我們對其進行細分。

    首先,很容易理解BERT是Transformers的雙向編碼器表示。這里的每個詞都有其含義,我們將在本文中逐一討論。這一行的關鍵是,BERT是基于Transformer架構的

    其次,BERT是在大量未標記文本的預訓練,包括整個Wikipedia(有25億個詞!)和圖書語料庫(有8億個單詞)。

    這個預訓練步驟是BERT成功背后的一半。這是因為當我們在大型文本語料庫上訓練模型時,我們的模型開始獲得對語言工作原理的更深入和深入的了解。這種知識幾乎可用于所有NLP任務

    第三,BERT是"深度雙向"模型。雙向意味著BERT在訓練階段從目標詞的左右兩側上下文來學習信息。

    模型的雙向性對于真正理解語言的意義很重要。讓我們看一個例子來說明這一點。在此示例中,有兩個句子,并且兩個句子都包含單詞"bank":

    如果我們僅通過選擇左側或右側上下文來預測"bank"一詞的意義,那么在兩個給定示例中至少有一個會出錯。

    解決此問題的一種方法是在進行預測之前考慮左右上下文。這正是BERT所做的!我們將在本文的后面看到如何實現這一目標。

    最后,BERT最令人印象深刻的方面。我們可以通過僅添加幾個其他輸出層來微調它,以創建用于各種NLP任務的最新模型。

    三 從Word2Vec到BERT

    NLP的學習語言表示的探索

    "自然語言處理中的最大挑戰之一是訓練數據的短缺。由于NLP是一個具有許多不同任務的多元化領域,因此大多數特定于任務的數據集僅包含數千或數十萬個人標記的訓練示例。" – Google AI

    Word2Vec和GloVe

    通過在大型未標記文本數據上進行預訓練模型來學習語言表示的要求始于諸如Word2Vec和GloVe之類的Word Embedding。這些Embedding改變了我們執行NLP任務的方式。現在,我們有了Embedding,可以捕獲單詞之間的上下文關系。

    這些Embedding被用來訓練下游NLP任務的模型,并做出更好的預測。這可以通過利用來自Embedding本身的附加信息,甚至使用較少的特定于任務的數據來完成。

    這些Embedding的一個限制是使用非常淺的語言模型。這意味著他們能夠獲取的信息的數量是有限的,這促使他們使用更深入、更復雜的語言模型(LSTMs和GRUs層)。

    另一個關鍵的限制是,這些模型沒有考慮單詞的上下文。讓我們以上面的“bank”為例。同一個單詞在不同的上下文中有不同的意思。然而,像Word2Vec這樣的Embedding將在這兩個上下文中為“bank”提供相同的Word Embedding。

    這是導致模型不準確的一個因素。

    ELMO和ULMFiT

    ELMo是NLP社區對一詞多義問題的回應——相同的詞在不同的語境中有不同的含義。從訓練淺層前饋網絡(Word2vec),逐步過渡到使用復雜的雙向LSTM體系結構的層來訓練Word Embedding。這意味著同一個單詞可以根據它所在的上下文有多個ELMO Embedding。

    那是我們開始看到預訓練作為NLP的訓練機制的優勢。

    ULMFiT則更進一步。這個框架可以訓練語言模型,這些模型可以進行微調,從而在各種文檔分類任務中,即使使用更少的數據(少于100個示例)也可以提供出色的結果。可以肯定地說,ULMFiT破解了NLP中遷移學習的密碼。

    這就是我們在NLP中建立遷移學習黃金法則的時候:

    NLP中的遷移學習 =預訓練和微調

    ULMFIT之后的大多數NLP的突破調整了上述等式的組成部分,并獲得了最先進的基準。

    OpenAI的GPT

    OpenAI的GPT擴展了ULMFiT和ELMo引入的預訓練和微調方法。GPT本質上用基于轉換的體系結構取代了基于LSTM的語言建模體系結構。

    GPT模型可以微調到文檔分類之外的多個NLP任務,如常識推理、語義相似性和閱讀理解。

    GPT還強調了Transformer框架的重要性,它具有更簡單的體系結構,并且比基于LSTM的模型訓練得更快。它還能夠通過使用注意力機制來學習數據中的復雜模式。

    OpenAI的GPT通過實現多個最先進的技術,驗證了Transformer架構的健壯性和有用性。

    這就是Transformer如何啟發了BERT以及接下來在NLP領域的所有突破。

    現在,還有一些其他的重要突破和研究成果我們還沒有提到,比如半監督序列學習。這是因為它們稍微超出了本文的范圍,但是你可以閱讀相關的論文來了解更多信息。

    BERT

    因此,解決NLP任務的新方法變成了一個2步過程:

  • 在大型無標簽文本語料庫(無監督或半監督)上訓練語言模型
  • 將這個大型模型微調到特定的NLP任務,以利用這個大型知識庫訓練模型(監督)
  • 在這樣的背景下,讓我們來理解BERT是如何從這里開始建立一個模型,這個模型將在很長一段時間內成為NLP中優秀的基準。

    ?

    四 BERT如何工作?

    讓我們仔細看一下BERT,了解為什么它是一種有效的語言建模方法。我們已經知道BERT可以做什么,但是它是如何做到的?我們將在本節中回答這個相關問題。

    bert從這幾方面做了改進:

    • Masked LM
    • NSP Multi-task Learning
    • Encoder again

    bert為什么更好呢?

    • 單向信息流的問題 ,只能看前面,不能看后面,其實預料里有后面的信息,只是訓練語言模型任務特殊要求只能看后面的信息,這是最大的一個問題
    • 其次是pretrain 和finetuning 幾個句子不匹配

    1. BERT的體系結構

    下圖是 Transformer 的 encoder 部分,輸入是一個 token 序列,先對其進行 embedding 稱為向量,然后輸入給神經網絡,輸出是大小為?的向量序列,每個向量對應著具有相同索引的 token。

    BERT架構建立在Transformer之上。我們目前有兩個可用的版本:

    • BERT Base:12層transformer,12個attention heads和1.1億個參數
    • BERT Large:24層transformer,16個attention heads和3.4億個參數

    Bert base的網絡結構: L(網絡層數)=12, H(隱藏層維度)=768, A(Attention 多頭個數)=12, Total Parameters= 12*768*12=110M? ?使用GPU內存:7G多

    Bert large的網絡結構 (L=24, H=1024, A=16, Total Parameters=340M). 使用GPU內存:32G多

    How is the number of BERT model parameters calculated? · Issue #656 · google-research/bert (github.com)https://github.com/google-research/bert/issues/656

    出于比較的目的,BERT Base架構具有與OpenAI的GPT相同的模型大小。所有這些Transformer層都是只使用Transformer的編碼器

    現在我們已經了解了BERT的總體架構,接下來讓我們看看在進入模型構建階段之前需要哪些文本處理步驟。

    2.文本預處理

    BERT背后的開發人員已經添加了一組特定規則來表示模型的輸入文本。其中許多是創造性的設計選擇,目的是使模型更好。

    • 對于英文模型,使用了 Wordpiece 模型來產生 Subword 從而減小詞表規模;對于中文模型,直接訓練基于字的模型。
    • 模型輸入需要附加一個起始 Token,記為 [CLS],對應最終的 Hidden State(即 Transformer 的輸出)可以用來表征整個句子,用于下游的分類任務。
    • 模型能夠處理句間關系。為區別兩個句子,用一個特殊標記符 [SEP] 進行分隔,另外針對不同的句子,將學習到的 Segment Embeddings 加到每個 Token 的 Embedding 上。
    • 對于單句輸入,只有一種 Segment Embedding;對于句對輸入,會有兩種 Segment Embedding。

    對于初學者,每個輸入的Embedding是3個嵌入的組合:

  • 位置嵌入(Position Embeddings):BERT學習并使用位置嵌入來表達句子中單詞的位置。這些是為了克服Transformer的限制而添加的,Transformer與RNN不同,它不能捕獲“序列”或“順序”信息
  • 段嵌入(Segment Embeddings):BERT還可以將句子對作為任務的輸入(可用于問答)。這就是為什么它學習第一和第二句話的獨特嵌入,以幫助模型區分它們。在上面的例子中,所有標記為EA的標記都屬于句子A(對于EB也是一樣)
  • 目標詞嵌入(Token Embeddings):這些是從WordPiece詞匯表中對特定詞匯學習到的嵌入
  • 對于給定的目標詞,其輸入表示是通過對相應的目標詞、段和位置的Embedding進行求和來構造的。

    這樣一個綜合的Embedding方案包含了很多對模型有用的信息。

    這些預處理步驟的組合使BERT如此多才多藝。這意味著,不需要對模型的體系結構進行任何重大更改,我們就可以輕松地對它進行多種NLP任務的訓練。

    3.預訓練任務

    BERT已接受兩項NLP任務的預訓練:

    • 屏蔽語言建模? Masked Language Model
    • 下一句預測 Next Sentence Prediction

    讓我們更詳細地了解這兩個任務!

    1. Masked Language Model(MLM)

    A. 雙向性

    BERT被設計成一個深度雙向模型。網絡有效地從第一層本身一直到最后一層捕獲來自目標詞的左右上下文的信息。

    傳統上,我們要么訓練語言模型預測句子中的下一個單詞(GPT中使用的從右到左的上下文),要么訓練語言模型預測從左到右的上下文。這使得我們的模型容易由于信息丟失而產生錯誤。

    ELMo試圖通過在左到右和從右到左的上下文中訓練兩個LSTM語言模型并對其進行淺級連接來解決此問題。即使它在現有技術上有了很大的改進,但這還不夠。

    "憑直覺,我們有理由相信,深層雙向模型比左向右模型或從左至右和從右至左模型的淺級連接嚴格更強大。" – BERT

    這就是BERT在GPT和ELMo上都大大改進的地方。看下圖:

    箭頭指示從一層到下一層的信息流。頂部的綠色框表示每個輸入單詞的最終上下文表示。

    從上圖可以明顯看出:BERT是雙向的,GPT是單向的(信息僅從左向右流動),而ELMO是淺雙向的。

    B. 屏蔽語言模型

    假設我們有一句話——“我喜歡閱讀關于分析數據科學的博客”。我們想要訓練一個雙向的語言模型。與其試圖預測序列中的下一個單詞,不如構建一個模型,從序列本身預測缺失的單詞。

    讓我們把“分析”替換成“[MASK]”。這是表示被屏蔽的單詞。然后,我們將以這樣一種方式訓練該模型,使它能夠預測“分析”這個詞語,所以句子變為:“我喜歡閱讀關于[MASK]數據科學的博客”

    這是掩蔽語言模型的關鍵所在。BERT的作者還提出了一些注意事項,以進一步改進這項技術:

    • 為了防止模型過于關注一個特定的位置或被掩蓋的標記,研究人員隨機掩蓋了15%的單詞
    • 掩碼字并不總是被掩碼令牌[掩碼]替換,因為[掩碼]令牌在調優期間不會出現

    訓練過程大量看到 [MASK] 標記,但是真正后面用的時候是不會有這個標記的,這會引導模型認為輸出是針對 [MASK] 這個標記的,但是實際使用又見不到這個標記。

    因此,研究人員采用了以下方法:

    • 80%的情況下,單詞被替換成帶Mask的令牌[Mask]?? my dog is hairy → my dog is [MASK]
    • 10%的情況下,這些單詞被隨機替換? my dog is hairy -> my dog is apple
    • 有10%的時間單詞是保持不變的? my dog is hairy -> my dog is hairy

    那么為啥要以一定的概率使用隨機詞呢?這是因為transformer要保持對每個輸入token分布式的表征,否則Transformer很可能會記住這個[MASK]就是"hairy"。至于使用隨機詞帶來的負面影響,文章中解釋說,所有其他的token(即非"hairy"的token)共享15%*10% = 1.5%的概率,其影響是可以忽略不計的。Transformer全局的可視,又增加了信息的獲取,但是不讓模型獲取全量信息。

    在將單詞序列輸入給 BERT 之前,每個序列中有 15% 的單詞被 [MASK] token 替換。 然后模型嘗試基于序列中其他未被 mask 的單詞的上下文來預測被掩蓋的原單詞。

    這樣就需要:

  • 在 encoder 的輸出上添加一個分類層
  • 用嵌入矩陣乘以輸出向量,將其轉換為詞匯的維度
  • 用 softmax 計算詞匯表中每個單詞的概率
  • BERT 的損失函數只考慮了 mask 的預測值,忽略了沒有掩蔽的字的預測。這樣的話,模型要比單向模型收斂得慢,不過結果的情境意識增加了。

    這不就是我們高中英語常做的完形填空么!所以說,BERT模型的預訓練過程其實就是在模仿我們學語言的過程。

    具體來說,文章作者在一句話中隨機選擇15%的詞匯用于預測。對于在原句中被抹去的詞匯,80%情況下采用一個特殊符號[MASK]替換,10%情況下采用一個任意詞替換,剩余10%情況下保持原詞匯不變。這么做的主要原因是:在后續微調任務中語句中并不會出現[MASK]標記,而且這么做的另一個好處是:預測一個詞匯時,模型并不知道輸入對應位置的詞匯是否為正確的詞匯(10%概率),這就迫使模型更多地依賴于上下文信息去預測詞匯,并且賦予了模型一定的糾錯能力。

    2. 下一句預測 Next Sentence Prediction

    掩蔽語言模型(MLMs)學習理解單詞之間的關系。此外,BERT還接受了下一個句子預測任務的訓練,這些任務需要理解句子之間的關系

    此類任務的一個很好的例子是問題回答系統。

    任務很簡單。給定兩個句子——A和B, B是語料庫中A后面的下一個句子,還是一個隨機的句子?

    由于它是一個二分類任務,因此可以通過將任何語料庫分成句子對來輕松生成數據。就像mlm一樣,作者在這里也添加了一些注意事項。讓我們舉個例子:

    假設我們有一個包含100,000個句子的文本數據集。因此,將有50,000個訓練例子或句子對作為訓練數據。

    • 對于50%的對來說,第二個句子實際上是第一個句子的下一個句子
    • 對于剩下的50%,第二句是語料庫中的一個隨機句子
    • 第一種情況的標簽是“IsNext”,而第二種情況的標簽是“NotNext

    這就是為什么BERT能夠成為一個真正的任務不可知的模型。它結合了掩蔽語言模型(MLM)和下一個句子預測(NSP)的預訓練任務。

    當年大學考英語四六級的時候,大家應該都做過段落重排序,即:將一篇文章的各段打亂,讓我們通過重新排序把原文還原出來,這其實需要我們對全文大意有充分、準確的理解。

    Next Sentence Prediction任務實際上就是段落重排序的簡化版:只考慮兩句話,判斷是否是一篇文章中的前后句。在實際預訓練過程中,文章作者從文本語料庫中隨機選擇50%正確語句對和50%錯誤語句對進行訓練,與Masked LM任務相結合,讓模型能夠更準確地刻畫語句乃至篇章層面的語義信息。

    BERT模型通過對Masked LM任務和Next Sentence Prediction任務進行聯合訓練,使模型輸出的每個字/詞的向量表示都能盡可能全面、準確地刻畫輸入文本(單句或語句對)的整體信息,為后續的微調任務提供更好的模型參數初始值。

    五 BERT使用場景

    BERT 可以用于各種NLP任務,只需在核心模型中添加一個層,例如:

  • 在分類任務中,例如情感分析等,只需要在 Transformer 的輸出之上加一個分類層
  • 在問答任務(例如SQUAD v1.1)中,問答系統需要接收有關文本序列的 question,并且需要在序列中標記 answer。 可以使用 BERT 學習兩個標記 answer 開始和結尾的向量來訓練Q&A模型。
  • 在命名實體識別(NER)中,系統需要接收文本序列,標記文本中的各種類型的實體(人員,組織,日期等)。 可以用 BERT 將每個 token 的輸出向量送到預測 NER 標簽的分類層。
  • 從上圖中可以看出

    1? 字向量:BERT模型通過查詢字向量表將文本中的每個字轉換為一維向量,作為模型輸入;模型輸出則是輸入各字對應的融合全文語義信息后的向量表示。

    2. 文本向量:該向量的取值在模型訓練過程中自動學習,用于刻畫文本的全局語義信息,并與單字/詞的語義信息相融合

    3. 位置向量:由于出現在文本不同位置的字/詞所攜帶的語義信息存在差異(比如:“我愛你”和“你愛我”),因此,BERT模型對不同位置的字/詞分別附加一個不同的向量以作區分

    最后,BERT模型將字向量、文本向量和位置向量的加和作為模型輸入。特別地,在目前的BERT模型中,文章作者還將英文詞匯作進一步切割,劃分為更細粒度的語義單位(WordPiece),例如:將playing分割為play和##ing;此外,對于中文,目前作者尚未對輸入文本進行分詞,而是直接將單字作為構成文本的基本單位。

    對于不同的NLP任務,模型輸入會有微調,對模型輸出的利用也有差異:

    1. 單文本分類任務:

    對于文本分類任務,BERT模型在文本前插入一個[CLS]符號,并將該符號對應的輸出向量作為整篇文本的語義表示,用于文本分類,如下圖所示。可以理解為:與文本中已有的其它字/詞相比,這個無明顯語義信息的符號會更“公平”地融合文本中各個字/詞的語義信息。

    2 語句對分類任務

    該任務的實際應用場景包括:問答(判斷一個問題與一個答案是否匹配)、語句匹配(兩句話是否表達同一個意思)等。對于該任務,BERT模型除了添加[CLS]符號并將對應的輸出作為文本的語義表示,還對輸入的兩句話用一個[SEP]符號作分割,并分別對兩句話附加兩個不同的文本向量以作區分,如下圖所示。

    3. 序列標注任務:

    該任務的實際應用場景包括:中文分詞&新詞發現(標注每個字是詞的首字、中間字或末字)、答案抽取(答案的起止位置)等。對于該任務,BERT模型利用文本中每個字對應的輸出向量對該字進行標注(分類),如下圖所示(B、I、E分別表示一個詞的第一個字、中間字和最后一個字)。

    六 BERT的評價

    總結下BERT的主要貢獻:

    • 引入了Masked LM,使用雙向LM做模型預訓練。
    • 為預訓練引入了新目標NSP,它可以學習句子與句子間的關系。
    • 進一步驗證了更大的模型效果更好: 12 --> 24 層。
    • 為下游任務引入了很通用的求解框架,不再為任務做模型定制。
    • 刷新了多項NLP任務的記錄,引爆了NLP無監督預訓練技術。

    BERT優點

    • Transformer Encoder因為有Self-attention機制,因此BERT自帶雙向功能。
    • 因為雙向功能以及多層Self-attention機制的影響,使得BERT必須使用Cloze版的語言模型Masked-LM來完成token級別的預訓練。
    • 為了獲取比詞更高級別的句子級別的語義表征,BERT加入了Next Sentence Prediction來和Masked-LM一起做聯合訓練。
    • 為了適配多任務下的遷移學習,BERT設計了更通用的輸入層和輸出層。
    • 微調成本小。

    BERT缺點

    • task1的隨機遮擋策略略顯粗獷,推薦閱讀《Data Nosing As Smoothing In Neural Network Language Models》。
    • [MASK]標記在實際預測中不會出現,訓練時用過多[MASK]影響模型表現。每個batch只有15%的token被預測,所以BERT收斂得比left-to-right模型要慢(它們會預測每個token)。
    • BERT對硬件資源的消耗巨大(大模型需要16個tpu,歷時四天;更大的模型需要64個tpu,歷時四天。


    ?

    七 實現BERT以進行文本分類

    你的頭腦一定被BERT所開辟的各種可能性攪得團團轉。我們有許多方法可以利用BERT的大量知識來開發我們的NLP應用程序。

    最有效的方法之一是根據你自己的任務和特定于任務的數據對其進行微調。然后我們可以使用BERT中的Embedding作為文本文檔的Embedding。

    在本節中,我們將學習如何在NLP任務中使用BERT的Embedding。我們將在以后的文章中討論對整個BERT模型進行微調的概念。

    為了從BERT中提取Embedding,我們將使用一個非常有用的開源項目: https://github.com/hanxiao/bert-as-service

    這個開源項目如此有用的原因是它允許我們只需兩行代碼使用BERT獲取每個句子的Embedding。

    安裝BERT-As-Service

    服務以一種簡單的方式工作。它創建了一個BERT服務器。每次我們將一個句子列表發送給它時,它將發送所有句子的Embedding。

    我們可以通過pip安裝服務器和客戶機。它們可以單獨安裝,甚至可以安裝在不同的機器上:

    pip install bert-serving-server # server pip install bert-serving-client # client, independent of `bert-serving-server`

    注意,服務器必須在Python >= 3.5上運行,而TensorFlow >= 1.10

    此外,由于運行BERT是一個GPU密集型任務,我建議在基于云的GPU或其他具有高計算能力的機器上安裝BERT服務器

    現在,回到你的終端并下載下面列出的模型。然后,將zip文件解壓縮到某個文件夾中,比如/tmp/english_L-12_H-768_A-12/。

    以下是發布的預訓練BERT模型列表:

    BERT-Base, Uncased 12-layer, 768-hidden, 12-heads, 110M parameters https://storage.googleapis.com/bert_models/2018_10_18/uncased_L-12_H-768_A-12.zipBERT-Large, Uncased 24-layer, 1024-hidden, 16-heads, 340M parameters https://storage.googleapis.com/bert_models/2018_10_18/uncased_L-24_H-1024_A-16.zipBERT-Base, Cased 12-layer, 768-hidden, 12-heads, 110M parameters https://storage.googleapis.com/bert_models/2018_10_18/cased_L-12_H-768_A-12.zipBERT-Large, Cased 24-layer, 1024-hidden, 16-heads, 340M parameters https://storage.googleapis.com/bert_models/2018_10_18/cased_L-24_H-1024_A-16.zipBERT-Base, Multilingual Cased (New) 104 languages, 12-layer, 768-hidden, 12-heads, 110M parameters https://storage.googleapis.com/bert_models/2018_11_23/multi_cased_L-12_H-768_A-12.zipBERT-Base, Multilingual Cased (Old) 102 languages, 12-layer, 768-hidden, 12-heads, 110M parameters https://storage.googleapis.com/bert_models/2018_11_03/multilingual_L-12_H-768_A-12.zipBERT-Base, Chinese Chinese Simplified and Traditional, 12-layer, 768-hidden, 12-heads, 110M parameters https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip

    我們將下載BERT Uncased,然后解壓縮zip文件:

    wget https://storage.googleapis.com/bert_models/2018_10_18/uncased_L-12_H-768_A-12.zip && unzip uncased_L-12_H-768_A-12.zip

    將所有文件提取到一個文件夾中之后,就可以啟動BERT服務了:

    bert-serving-start -model_dir uncased_L-12_H-768_A-12/ -num_worker=2 -max_seq_len 50

    現在,你可以從Python代碼(使用客戶端庫)簡單地調用BERT-As-Service。讓我們直接進入代碼!

    打開一個新的Jupyter notebook,試著獲取以下句子的Embedding:“I love data science and analytics vidhya”。

    from bert_serving.client import BertClient# 使用BERT服務器的ip地址與它建立連接;如果是同一臺電腦,不用填寫IP bc = BertClient(ip="SERVER_IP_HERE") # 獲取embedding embedding = bc.encode(["I love data science and analytics vidhya."]) # 檢查embedding的形狀,應該是 1x768 print(embedding.shape)

    這里,IP地址是你的服務器或云的IP。如果在同一臺計算機上使用,則不需要此字段。

    返回的embedding形狀為(1,768),因為BERT的架構中一個句子由768個隱藏單元表示。

    問題: 在Twitter上對不良言論進行分類

    讓我們拿一個真實世界的數據集來看看BERT有多有效。我們將使用一個數據集,該數據集由一系列推文組成,這些推文被歸類為“不良言論”或非“不良言論”。

    為了簡單起見,如果一條推文帶有種族主義或性別歧視的情緒,我們就說它包含不良言論。因此,我們的任務是將種族主義或性別歧視的推文與其他推文進行分類

    數據集鏈接

    https://datahack.analyticsvidhya.com/contest/practice-problem-twitter-sentiment-analysis/?utm_source=blog&utm_medium=demystifying-bert-groundbreaking-nlp-framework。

    我們將使用BERT從數據集中的每個推特中提取Embedding,然后使用這些Embedding來訓練文本分類模型。

    以下是該項目的整體結構:

    現在讓我們看一下代碼:

    import pandas as pd import numpy as np# 加載數據 train = pd.read_csv('BERT_proj/train_E6oV3lV.csv', encoding='iso-8859-1') train.shape

    你會熟悉大多數人是如何發推特的。有許多隨機的符號和數字(又名聊天語言!)我們的數據集也一樣。我們需要在通過BERT之前對它進行預處理:

    import re# 清理噪聲 def clean_text(text):# 只剩字符text = re.sub(r'[^a-zA-Z\']', ' ', text)# 去除unicode字符text = re.sub(r'[^\x00-\x7F]+', '', text)# 轉換成小寫text = text.lower()return texttrain['clean_text'] = train.tweet.apply(clean_text)

    現在數據集是干凈的,它被分割成訓練集和驗證集:

    from sklearn.model_selection import train_test_split# 分割成訓練集和驗證集 X_tr, X_val, y_tr, y_val = train_test_split(train.clean_text, train.label, test_size=0.25, random_state=42)print('X_tr shape:',X_tr.shape)

    讓我們在訓練和驗證集中獲得所有推特的Embedding:

    from bert_serving.client import BertClient# 連接BERT服務器 bc = BertClient(ip="YOUR_SERVER_IP") # 編碼訓練集和驗證集 X_tr_bert = bc.encode(X_tr.tolist()) X_val_bert = bc.encode(X_val.tolist())

    現在是建模時間!我們來訓練分類模型:

    from sklearn.linear_model import LogisticRegression# 使用LR模型 model_bert = LogisticRegression() # 訓練 model_bert = model_bert.fit(X_tr_bert, y_tr) # 預測 pred_bert = model_bert.predict(X_val_bert)

    檢查分類精度:

    from sklearn.metrics import accuracy_scoreprint(accuracy_score(y_val, pred_bert))

    即使使用如此小的數據集,我們也可以輕松獲得大約95%的分類精度,這真的非常棒。

    我鼓勵你繼續嘗試BERT對不同問題進行嘗試

    超越BERT:目前最先進的NLP

    BERT激發了人們對NLP領域的極大興趣,特別是NLP任務中Transformer的應用。這導致了研究實驗室和組織的數量激增,他們開始研究預訓練、BERT和fine-tuning的不同方面。

    許多這樣的項目在多個NLP任務上都比BERT做得好。其中最有趣的是RoBERTa,這是Facebook人工智能對BERT和DistilBERT的改進,而DistilBERT是BERT的精簡版和快速版。

    BERT相關論文、文章和代碼資源匯總

    1、Google官方:

    1) BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

    一切始于10月Google祭出的這篇Paper, 瞬間引爆整個AI圈包括自媒體圈: https://arxiv.org/abs/1810.04805

    2) Github: https://github.com/google-research/bert

    11月Google推出了代碼和預訓練模型,再次引起群體亢奮。

    3) Google AI Blog: Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing

    2、第三方解讀:


    1) 張俊林博士的解讀, 知乎專欄:從Word Embedding到Bert模型—自然語言處理中的預訓練技術發展史

    我們在AINLP微信公眾號上轉載了這篇文章和張俊林博士分享的PPT,歡迎關注:

    • 從Word Embedding到Bert模型—自然語言處理中的預訓練技術發展史
    • 預訓練在自然語言處理的發展: 從Word Embedding到BERT模型

    2) 知乎: 如何評價 BERT 模型?

    3) 【NLP】Google BERT詳解

    4) [NLP自然語言處理]谷歌BERT模型深度解析

    5) BERT Explained: State of the art language model for NLP

    6) BERT介紹

    7) 論文解讀:BERT模型及fine-tuning

    8) NLP突破性成果 BERT 模型詳細解讀

    9) 干貨 | BERT fine-tune 終極實踐教程: 奇點智能BERT實戰教程,在AI Challenger 2018閱讀理解任務中訓練一個79+的模型。

    10) 【BERT詳解】《Dissecting BERT》by Miguel Romero Calvo
    Dissecting BERT Part 1: The Encoder
    Understanding BERT Part 2: BERT Specifics
    Dissecting BERT Appendix: The Decoder

    11)BERT+BiLSTM-CRF-NER用于做ner識別

    12)AI賦能法律 | NLP最強之谷歌BERT模型在智能司法領域的實踐淺談

    3 第三方代碼:

    1) pytorch-pretrained-BERT: https://github.com/huggingface/pytorch-pretrained-BERT
    Google官方推薦的PyTorch BERB版本實現,可加載Google預訓練的模型:PyTorch version of Google AI's BERT model with script to load Google's pre-trained models

    2) BERT-pytorch: https://github.com/codertimo/BERT-pytorch
    另一個Pytorch版本實現:Google AI 2018 BERT pytorch implementation

    3) BERT-tensorflow: https://github.com/guotong1988/BERT-tensorflow
    Tensorflow版本:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

    4) bert-chainer: https://github.com/soskek/bert-chainer
    Chanier版本: Chainer implementation of "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding"

    5) bert-as-service: https://github.com/hanxiao/bert-as-service
    將不同長度的句子用BERT預訓練模型編碼,映射到一個固定長度的向量上:Mapping a variable-length sentence to a fixed-length vector using pretrained BERT model
    這個很有意思,在這個基礎上稍進一步是否可以做一個句子相似度計算服務?有沒有同學一試?

    6) bert_language_understanding: https://github.com/brightmart/bert_language_understanding
    BERT實戰:Pre-training of Deep Bidirectional Transformers for Language Understanding: pre-train TextCNN

    7) sentiment_analysis_fine_grain: https://github.com/brightmart/sentiment_analysis_fine_grain
    BERT實戰,多標簽文本分類,在 AI Challenger 2018 細粒度情感分析任務上的嘗試:Multi-label Classification with BERT; Fine Grained Sentiment Analysis from AI challenger

    8) BERT-NER: https://github.com/kyzhouhzau/BERT-NER
    BERT實戰,命名實體識別: Use google BERT to do CoNLL-2003 NER !

    9) BERT-keras: https://github.com/Separius/BERT-keras
    Keras版: Keras implementation of BERT with pre-trained weights

    BERT的非官方實現,可以加載官方的預訓練模型進行特征提取和預測。

    https://github.com/CyberZHG/keras-bert

    已經基本實現bert,并且能成功加載官方權重,經驗證模型輸出跟keras-bert一致,大家可以放心使用

    https://github.com/bojone/bert4keras

    10) tbert: https://github.com/innodatalabs/tbert
    PyTorch port of BERT ML model

    11) BERT-Classification-Tutorial: https://github.com/Socialbird-AILab/BERT-Classification-Tutorial

    12) BERT-BiLSMT-CRF-NER: https://github.com/macanv/BERT-BiLSMT-CRF-NER
    Tensorflow solution of NER task Using BiLSTM-CRF model with Google BERT Fine-tuning

    13) bert-Chinese-classification-task
    bert中文分類實踐

    14) bert-chinese-ner: https://github.com/ProHiryu/bert-chinese-ner
    使用預訓練語言模型BERT做中文NER

    15)BERT-BiLSTM-CRF-NER
    Tensorflow solution of NER task Using BiLSTM-CRF model with Google BERT Fine-tuning

    16) bert-sequence-tagging: https://github.com/zhpmatrix/bert-sequence-tagging
    基于BERT的中文序列標注

    參考:

    理解BERT:一個突破性NLP框架的綜合指南

    圖解BERT模型:從零開始構建BERT

    BERT預訓練模型的演進過程

    總結

    以上是生活随笔為你收集整理的[深度学习] 自然语言处理 --- BERT模型原理的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    久久亚洲综合国产精品99麻豆的功能介绍 | 免费视频xnxx com| 亚洲综合欧美激情 | 色的网站在线观看 | 又黄又爽的免费高潮视频 | 欧美日韩视频在线观看一区二区 | 欧美精品九九99久久 | 国产精品video爽爽爽爽 | 激情网婷婷 | 免费性网站 | 欧美性精品 | 天天射天天干 | 久久久久久国产精品 | 在线精品视频免费观看 | 国产又黄又爽无遮挡 | 在线 影视 一区 | 久久久久久久99 | 婷婷丁香五 | 午夜视频免费 | 一区二区三区精品在线视频 | 最新极品jizzhd欧美 | 欧美日韩高清一区二区 | 中文字幕在线视频一区二区 | 免费观看一区二区三区视频 | 国产精品美女999 | 久久免费大片 | 青草草在线视频 | 亚洲欧美乱综合图片区小说区 | 中文字幕电影一区 | 欧美日在线观看 | 国产精品一区欧美 | 超级碰视频 | 黄色三级在线看 | 中文字幕久久精品 | 在线免费91 | 激情久久综合网 | 成人在线超碰 | 日韩精品久久久久久 | 久久久久久97三级 | 九九九九免费视频 | 国产一级免费在线观看 | 国产在线高清精品 | 91私密视频 | 国产欧美最新羞羞视频在线观看 | 91豆麻精品91久久久久久 | 欧美在线观看禁18 | 成人毛片久久 | 亚洲美女免费精品视频在线观看 | 92国产精品久久久久首页 | 国产成人精品免费在线观看 | 国产一区自拍视频 | 亚洲午夜久久久久久久久电影网 | 天堂av色婷婷一区二区三区 | 在线不卡视频 | 国产成人免费网站 | 黄色特级毛片 | 免费看一级一片 | 国产成人精品一区二三区 | 久久av观看 | 国产精品麻豆91 | 91中文视频 | 日韩在线视频观看 | 亚洲国产精久久久久久久 | a午夜在线 | 日本中文字幕免费观看 | 人人看人人草 | av福利在线播放 | 在线观看第一页 | 日韩在线视频观看免费 | 久久成人国产精品入口 | 日本系列中文字幕 | 日日夜夜噜| 在线观看视频国产一区 | 亚洲欧美日韩国产精品一区午夜 | 九九视频免费观看视频精品 | 成人av中文字幕在线观看 | 亚洲码国产日韩欧美高潮在线播放 | 久久不见久久见免费影院 | 日韩美精品视频 | 国产小视频你懂的在线 | 91一区二区三区久久久久国产乱 | 免费视频99 | 免费福利在线视频 | 日韩精品国产一区 | 亚洲视频在线播放 | 操操综合网 | 日日干干夜夜 | 缴情综合网五月天 | 一区 二区 精品 | 一区二区三区动漫 | 午夜视频在线观看网站 | av三级在线播放 | 欧美 日韩 国产 成人 在线 | 色播五月婷婷 | 亚洲国产成人精品在线观看 | 中文字幕视频一区二区 | 正在播放一区二区 | 夜夜夜夜猛噜噜噜噜噜初音未来 | 久久久99精品免费观看乱色 | 中文字幕综合在线 | 中文字幕一区二区三区四区在线视频 | 日韩黄色免费 | 日本精品视频一区二区 | 国产精品福利无圣光在线一区 | 久久久久国产精品免费免费搜索 | 国产日韩欧美综合在线 | 在线观看免费视频 | 国外调教视频网站 | 不卡av免费在线观看 | 亚洲精品456在线播放 | 国产青春久久久国产毛片 | www.人人草 | 日韩深夜在线观看 | 视频三区在线 | 亚洲精品国偷自产在线91正片 | av三级av| 永久免费的av电影 | 欧美一级淫片videoshd | 久久精品99国产精品日本 | 一区二区伦理电影 | 激情五月婷婷丁香 | 日韩中文字幕a | 国产精品普通话 | 国产在线视频不卡 | 久草在线久 | 五月天婷婷在线播放 | 五月婷婷视频 | 国产视频一区在线播放 | 久草在线视频看看 | 手机看片久久 | 亚洲精品资源在线 | 国产精品99久久久久久人免费 | 伊人伊成久久人综合网站 | 成年人app网址 | 午夜在线国产 | 久国产在线播放 | 成人91在线观看 | 十八岁免进欧美 | 中文字幕在线网址 | 中文字幕刺激在线 | 国产亲近乱来精品 | 狠狠色免费 | 亚洲片在线 | 天天操天天射天天 | 国产精品久久久久久久久久久免费 | 国产亚洲永久域名 | 夜夜高潮夜夜爽国产伦精品 | 国产精品都在这里 | 97成人啪啪网| 午夜国产在线 | 免费黄色av片 | 99精品影视 | 99精品在这里 | 91亚洲精品久久久蜜桃 | 欧美日韩在线视频一区二区 | www.操.com| 成年人app网址 | 午夜精品一区二区三区可下载 | 色天堂在线视频 | 国产精品区免费视频 | 伊人五月 | 国产亚洲精品成人av久久ww | 欧美久久久久久久 | 久久麻豆精品 | 日韩欧美综合精品 | www色综合 | 五月婷婷操 | free,性欧美 九九交易行官网 | 精品嫩模福利一区二区蜜臀 | 精品久久网 | 在线观看一区二区精品 | 婷婷丁香狠狠爱 | 国产成人精品亚洲精品 | 五月婷婷综合在线 | 国产99久久久国产精品免费二区 | 免费高清在线观看成人 | 一区二区 久久 | 婷婷丁香在线视频 | 国产精品乱码高清在线看 | 免费不卡中文字幕视频 | 99re在线视频观看 | 亚洲国产片 | 视频在线国产 | 欧美成亚洲 | 国产精品6 | 狠狠色丁香九九婷婷综合五月 | 美女天天操 | 日韩av午夜 | 97操碰 | 色视频在线观看 | 欧美国产日韩在线观看 | 久久a热6 | 黄色精品视频 | 国产成人亚洲在线观看 | 99热这里只有精品在线观看 | 毛片.com| 免费观看黄 | 综合网久久 | 93久久精品日日躁夜夜躁欧美 | www.夜夜爽 | 国产精品影音先锋 | 在线国产99 | 一区 在线 影院 | 国产精品久久久久影院 | 精品国内自产拍在线观看视频 | 亚洲欧美激情插 | 97av在线| 欧美午夜久久久 | 精品国产一区二区三区四区在线观看 | 久久久亚洲电影 | 国产亚洲精品中文字幕 | 国产剧情一区 | 97色在线观看免费视频 | 在线观看自拍 | av免费观看高清 | 免费视频成人 | 成人毛片一区二区三区 | 在线午夜av | 天天干,天天草 | 国产一二三四在线视频 | 少妇精品久久久一区二区免费 | 久草在线播放视频 | 激情视频一区二区三区 | 久久国产二区 | 456成人精品影院 | 97av视频在线观看 | 成人精品一区二区三区中文字幕 | 亚洲精品国偷自产在线91正片 | 久久免费99精品久久久久久 | 五月天激情综合 | 亚洲精品乱码久久久久久9色 | 久久久久久久久久久精 | www.天天操| 国产精品专区在线 | 友田真希av| 久久福利小视频 | 97国产大学生情侣酒店的特点 | 天天玩天天干 | 激情综合狠狠 | 国产精品成人自产拍在线观看 | 亚洲电影网站 | 亚洲精品色视频 | 精品国产三级a∨在线欧美 免费一级片在线观看 | 亚洲综合一区二区精品导航 | 99九九热只有国产精品 | 九九久久国产 | 国产一级大片在线观看 | 五月天久久综合网 | 国产精品麻豆视频 | 亚洲va男人天堂 | 国产一性一爱一乱一交 | 国产又粗又猛又爽又黄的视频免费 | 亚洲桃花综合 | 成人国产亚洲 | 亚洲一区二区观看 | 欧美午夜性生活 | 91久久一区二区 | 日韩免费播放 | 久久夜色电影 | 国产99自拍 | 国产成人一区二 | 精品免费99久久 | 青青河边草免费视频 | 尤物九九久久国产精品的分类 | 亚洲va天堂va欧美ⅴa在线 | 亚洲日本激情 | 狠狠躁日日躁狂躁夜夜躁 | 黄色三级免费网址 | 制服丝袜欧美 | 97超碰人人澡 | 国产精品久久久久久久久久免费 | 国产视频高清 | 免费精品视频 | bayu135国产精品视频 | 91在线文字幕 | 日韩xxxbbb| 波多野结衣在线视频一区 | 久久这里只有精品首页 | 久久免费国产电影 | 91网站在线视频 | 久久国产精品99国产 | 99精品国自产在线 | 亚洲精品国产免费 | 亚洲香蕉视频 | 国产精久久久久久久 | av成人动漫 | 蜜臀av性久久久久蜜臀aⅴ流畅 | 国产中文字幕一区二区 | 日韩一区二区三区在线看 | 国产日韩欧美在线观看 | 最近2019年日本中文免费字幕 | 99精品在线视频播放 | 中文字幕欧美日韩va免费视频 | 久久爱992xxoo| 日韩a在线看 | 日本精品一区二区三区在线播放视频 | 成人免费视频播放 | 狠狠色免费 | 国产精品永久免费 | 国产剧情在线一区 | 国产69精品久久app免费版 | 久热av | 狠狠狠狠狠狠操 | 国产专区在线看 | 特级西西444www大胆高清无视频 | 美女国产| 久久色视频 | 97偷拍在线视频 | 欧美成人xxxxx | 色噜噜噜噜 | 黄色大片视频网站 | 嫩模bbw搡bbbb搡bbbb | 超碰免费公开 | 国产精品2019 | 在线观看中文字幕视频 | 色天天综合久久久久综合片 | 亚洲欧美日韩精品久久久 | 成人免费观看电影 | 久久国产经典 | 久久成人国产精品一区二区 | 国产一级视屏 | 中文在线字幕免费观 | 亚洲不卡av一区二区三区 | 天天综合成人网 | 91在线成人 | 亚洲国产一区二区精品专区 | 国产网站av | 久草精品视频 | 国产在线91精品 | 日韩啪啪小视频 | 人人射av | 波多野结衣网址 | 久久久久久综合 | 97超碰香蕉 | 日韩在线电影一区二区 | 日韩欧美在线综合网 | 一区二区三区日韩在线 | 国产在线97 | 久久久久久久久久网 | 久久这里只有精品1 | 色噜噜日韩精品一区二区三区视频 | 亚洲热久久| 麻豆久久一区二区 | 久久狠狠一本精品综合网 | 97偷拍在线视频 | 五月婷婷播播 | 天天干天天操天天搞 | 久久婷婷视频 | 99国产一区| 免费观看全黄做爰大片国产 | 91麻豆免费视频 | 天天操夜夜摸 | 久久人人爽人人爽人人 | 九九九热精品免费视频观看 | 中文字幕一二三区 | 国产色黄网站 | 成人免费毛片aaaaaa片 | 国产视频在| 成 人 黄 色视频免费播放 | 激情视频91 | 亚洲精品456在线播放乱码 | 精品成人在线 | 在线观看免费高清视频大全追剧 | 超碰国产人人 | 久久激情久久 | 亚洲 成人 欧美 | 国产中文字幕视频在线 | 国产精品99久久久久久宅男 | 国产精品av在线 | 五月天综合在线 | 97在线观看免费高清完整版在线观看 | 91精品久久久久久久久久入口 | 免费看黄的视频 | 国产精品久久久久久久妇 | 国产资源在线观看 | 五月婷色| 国产欧美精品xxxx另类 | 国产亚洲人成网站在线观看 | 丝袜网站在线观看 | 狠狠狠干| 中文字幕 国产专区 | 色播五月激情综合网 | 国产黄色片免费 | 亚洲免费黄色 | 久久一精品| 99视频在线免费观看 | 五月婷婷一级片 | 免费午夜网站 | 国产中文在线视频 | 国产精品久久电影观看 | 日韩精品极品视频 | 视频福利在线观看 | 国产精品激情偷乱一区二区∴ | av黄色成人 | bbb搡bbb爽爽爽 | 亚洲国产69 | 欧美亚洲国产精品久久高清浪潮 | 亚洲va欧洲va国产va不卡 | 香蕉视频在线免费 | 在线www色| 91亚洲精品国偷拍自产在线观看 | 日韩成人免费观看 | 天天操天天色天天射 | 91伊人| 天天草天天操 | 999精品视频 | 国产精品毛片一区二区 | 国内精品中文字幕 | 久久99久国产精品黄毛片入口 | 亚洲精品乱码久久久久v最新版 | 亚洲一区二区三区毛片 | 久草在线久 | 免费三级a | 一区二区三区精品在线视频 | 少妇bbbb揉bbbb日本 | 黄色中文字幕在线 | 精品国产伦一区二区三区免费 | 日韩av片无码一区二区不卡电影 | 激情网五月 | 丝袜少妇在线 | 日韩精品一区二区三区不卡 | 久久综合久久综合这里只有精品 | 黄色免费观看网址 | 国产精品久久久久久久久久久久午 | 精品久久久久久国产偷窥 | 国产亚洲欧美精品久久久久久 | 国模精品一区二区三区 | 国产精品aⅴ | 综合国产在线 | 欧美日韩亚洲在线观看 | 91视频午夜 | 伊人久在线 | 欧美激情视频免费看 | 国产精品av免费观看 | www日日夜夜 | 999一区二区三区 | 中文在线www | 中文字幕在线有码 | 久久久亚洲国产精品麻豆综合天堂 | 在线 国产 亚洲 欧美 | 久久精品一区二区 | 日韩国产精品久久 | 欧美激情视频三区 | 久久久免费精品 | 国产精品美女久久久久久久 | 一区中文字幕在线观看 | 亚洲一区二区三区四区精品 | 亚洲 av网站 | 成人在线观看资源 | 国产剧情一区二区在线观看 | 国产精品久久久久久吹潮天美传媒 | 亚洲精品视频久久 | 亚洲在线网址 | 免费色av| 91亚洲精品久久久久图片蜜桃 | 五月天综合激情网 | 欧美精品国产综合久久 | 天天操天天艹 | 天天做日日做天天爽视频免费 | 国产免费久久av | 久久久网址 | 免费色黄| 日韩成人精品在线观看 | 夜夜夜 | 在线播放 日韩专区 | 国内精品在线一区 | 狠狠88综合久久久久综合网 | 亚洲伊人成综合网 | 操操操夜夜操 | 亚洲成av人影院 | 中文av资源站 | 又大又硬又黄又爽视频在线观看 | 人人插人人艹 | 五月婷婷综合在线 | 亚洲欧洲久久久 | 日韩亚洲在线观看 | 亚洲春色综合另类校园电影 | 91久久国产自产拍夜夜嗨 | 亚洲综合成人婷婷小说 | 中国美女一级看片 | 亚洲视频h | 免费观看av | 久久手机在线视频 | 2021国产视频 | 黄色av电影网 | 97超碰伊人 | 亚洲激情校园春色 | 精品国产理论 | 日韩精品中文字幕在线观看 | 久草精品视频在线看网站免费 | 狠狠色狠狠色合久久伊人 | 在线观看一级 | 亚洲精品视频偷拍 | www.国产在线 | 国产最新在线观看 | 亚洲精品国偷自产在线91正片 | 久久国产午夜精品理论片最新版本 | 97免费中文视频在线观看 | 人人添人人澡人人澡人人人爽 | 天天摸日日操 | 国产一二三区在线观看 | 狠狠躁日日躁狂躁夜夜躁av | 91视频大全| 色狠狠婷婷 | 我爱av激情网 | 亚洲少妇天堂 | 国产精品久久久视频 | 97超碰成人在线 | 亚洲成人午夜在线 | 国产精品麻豆视频 | av 一区二区三区 | 人人爽人人爽人人 | 亚州天堂 | 国产精品观看 | 91人人澡人人爽人人精品 | 99精品视频在线观看免费 | 久草视频免费在线播放 | 午夜在线免费视频 | 天天综合网久久 | 免费高清在线观看成人 | 婷婷六月丁香激情 | 99久高清在线观看视频99精品热在线观看视频 | 久草在线资源视频 | 亚洲欧洲一级 | 国偷自产中文字幕亚洲手机在线 | 免费av小说| 免费观看国产精品 | 日韩精品久久久 | 天天综合网天天综合色 | 高清不卡毛片 | 日韩成人在线一区二区 | 国产精品久久久久久久久久白浆 | 成人久久久久久久久久 | 欧美大片www| 欧美日韩午夜爽爽 | 国产一级二级在线播放 | 成人免费网站视频 | 亚洲狠狠婷婷 | a久久久久久 | 又黄又爽又无遮挡免费的网站 | 麻豆国产精品永久免费视频 | 亚洲精品tv久久久久久久久久 | 黄色一级大片在线免费看产 | 亚洲乱码在线观看 | 五月天丁香综合 | 亚洲欧洲一区二区在线观看 | 99久热在线精品视频成人一区 | 国产精品亚洲精品 | www免费看| 婷婷五天天在线视频 | 精品国产激情 | 91成人在线视频 | 久久成| 午夜12点 | 在线一二三区 | 成 人 黄 色 片 在线播放 | 中文字幕在线观看视频免费 | 91视频在线免费 | 国产精品久久久久久久久久久不卡 | 天天夜操 | 日韩高清一区二区 | 欧美在线99 | www.久久免费视频 | 91免费观看网站 | 日韩激情影院 | 色噜噜日韩精品欧美一区二区 | 亚洲精品午夜视频 | www.av小说 | 99爱视频| www.日日日.com | 欧美精品中文在线免费观看 | 91高清在线| 欧美色道 | 91麻豆视频 | 午夜影院一区 | 亚洲a色 | 99c视频高清免费观看 | 久久成人人人人精品欧 | 日韩中文在线字幕 | 亚洲影视九九影院在线观看 | 日韩电影中文,亚洲精品乱码 | 亚洲丁香久久久 | 欧美午夜精品久久久久久浪潮 | 国产成人亚洲在线电影 | 久久综合久久88 | 97综合在线 | 在线观看视频在线 | 日本在线观看中文字幕无线观看 | 日韩高清不卡一区二区三区 | 国产一级二级三级在线观看 | 日韩中文字幕免费电影 | 肉色欧美久久久久久久免费看 | 亚洲免费激情 | 成人av视屏 | 最新av中文字幕 | 国产一区在线播放 | 久久久久久久网 | 99热这里是精品 | 国内丰满少妇猛烈精品播 | 日韩av在线网站 | 国产精品久久久久久久毛片 | 97精品国产91久久久久久 | 国产高清在线观看av | 久久综合久久久久88 | 久久在线观看 | 激情五月网站 | 一级黄色片在线观看 | 少妇精品久久久一区二区免费 | 中国老女人日b | 国产精品国产三级国产不产一地 | 国产精品淫 | 天天插狠狠插 | av黄在线播放 | 亚洲精品视频在线看 | 999国内精品永久免费视频 | 91av欧美| 天天天干夜夜夜操 | 日韩精品久久久久 | 综合天堂av久久久久久久 | 天天操天天干天天操天天干 | 亚洲专区路线二 | 国产精品久久久久久久99 | 国产一区精品在线观看 | 亚洲成a人片在线观看中文 中文字幕在线视频第一页 狠狠色丁香婷婷综合 | www.com在线观看 | 久久久久久免费 | 国产中文视 | 成人不用播放器 | 激情综合色图 | 国产专区在线播放 | 蜜桃视频成人在线观看 | 日本不卡久久 | 久久国产精品系列 | 日韩免费| av日韩国产 | 91亚洲精品在线观看 | 国产午夜麻豆影院在线观看 | 五月婷婷色综合 | 亚洲成人黄色网址 | 国产精品毛片一区视频播不卡 | 九月婷婷综合网 | 麻豆高清免费国产一区 | 久久影院精品 | 黄色毛片在线观看 | 伊人欧美 | 中文字幕高清在线播放 | 久久久国产精品一区二区中文 | 波多野结衣精品视频 | 日黄网站 | 在线电影 一区 | 国产成人精品免费在线观看 | 国产 欧美 日产久久 | 在线免费av电影 | 国产精品一区二区av日韩在线 | 国产美腿白丝袜足在线av | 久久久久免费精品 | 91成年人在线观看 | 91日韩在线专区 | 美女露久久 | 天天操天天操天天操 | 精品免费观看视频 | 欧美一级片在线观看视频 | 日本在线观看中文字幕无线观看 | 免费在线观看一区 | 国产一区二区免费看 | 超碰人人在 | 国产在线a不卡 | av电影免费在线看 | 超碰97.com| 日韩免费高清在线 | 欧美做受高潮电影o | 人人干狠狠操 | 最近中文字幕免费观看 | 日韩中文字幕免费视频 | 黄污视频大全 | 国产99久久九九精品免费 | 国内精品一区二区 | 国产无套精品久久久久久 | 丁香婷婷电影 | 婷五月天激情 | 久久精品播放 | 一本—道久久a久久精品蜜桃 | 右手影院亚洲欧美 | 在线精品视频免费播放 | 日韩三级免费 | 99热这里有精品 | 一级a性色生活片久久毛片波多野 | 色综合久久久久久久 | 操操爽| 免费视频 三区 | 一级久久久 | 久草99| 伊人国产在线播放 | 国产精品ⅴa有声小说 | 99久久精品免费视频 | 不卡电影一区二区三区 | 久久久精品视频网站 | 波多野结衣在线播放一区 | 久久久网| 在线观看av国产 | 中文字幕一区二区三区在线播放 | www一起操 | 亚洲国产午夜 | 日韩在线精品视频 | 国产免费片 | 国产成人精品av在线 | 九九九九九九精品 | 久草久草在线观看 | av电影在线不卡 | 在线观看av大片 | 91视频91色| 久草av在线播放 | 国产一区二区精 | 国产麻豆精品久久一二三 | 日本视频久久久 | 免费日韩 精品中文字幕视频在线 | 午夜精品剧场 | 69精品视频在线观看 | 国产999精品久久久 免费a网站 | 日本中文字幕观看 | 久草电影免费在线观看 | 麻豆视频免费网站 | 久久久久久久久久久久久国产精品 | 黄色成人av | 你操综合 | 午夜12点 | 久久久国产精品电影 | 国产精品久久久精品 | 国产精品美女免费 | 婷婷在线播放 | 日韩一区二区免费视频 | 久久精品国产成人 | 久久久久成人精品 | 这里只有精品视频在线观看 | 91av视频在线免费观看 | 九九在线视频免费观看 | 亚洲欧美成人综合 | 午夜.dj高清免费观看视频 | 精品亚洲一区二区 | 国产在线观看地址 | 高清av不卡 | 久久久国产精品成人免费 | 少妇bbbb搡bbbb桶 | 国产精品久久久久久久久婷婷 | 国产福利91精品一区二区三区 | 免费国产亚洲视频 | 九九在线免费视频 | 亚洲国产日韩在线 | 黄色福利网 | av资源免费观看 | 狠狠狠狠狠狠狠狠 | 精品xxx | 天天操,夜夜操 | 午夜国产福利在线 | 久久久久色 | 一本之道乱码区 | 久久久久国产a免费观看rela | 最新国产在线视频 | 97超碰在| 色av色av色av | 成年人视频在线观看免费 | 亚洲精品午夜久久久 | 97精产国品一二三产区在线 | 欧美日韩另类视频 | 成人午夜黄色影院 | 综合网在线视频 | 2020天天干天天操 | 又黄又爽的免费高潮视频 | 日韩大陆欧美高清视频区 | 亚洲国产人午在线一二区 | 日韩精品一区二区免费视频 | 亚洲中字幕 | 99热网站| 91在线观看欧美日韩 | 免费av观看网站 | 国产成人综合精品 | 国产女人免费看a级丨片 | 婷婷伊人网 | 日韩欧美一区二区不卡 | 久久久久国产成人精品亚洲午夜 | 久久国产品| 欧美日韩首页 | 狠狠久久| 精品久久久久久久久亚洲 | 亚洲在线视频免费观看 | 久久伦理电影 | 日韩精品无 | 久草在线视频在线 | 夜添久久精品亚洲国产精品 | 国产精品一区二区三区视频免费 | 精品伦理一区二区三区 | 国产无遮挡猛进猛出免费软件 | 国产一区二区在线播放 | 日韩欧美在线观看一区二区三区 | 精品1区二区 | 亚色视频在线观看 | 亚洲精品乱码久久久一二三 | 国产一区二区久久 | 欧美三级在线播放 | 91伊人久久大香线蕉蜜芽人口 | 欧美日韩一区二区三区在线观看视频 | 久久久久免费视频 | 国产一级高清视频 | 日韩黄色免费电影 | 久久激情视频免费观看 | 成人在线免费视频 | 精品一二 | 欧美午夜理伦三级在线观看 | 成人av一区二区在线观看 | 在线看片日韩 | 日韩91精品 | 92中文资源在线 | 国产黄色片免费看 | 日韩字幕| 在线观看www91| 国产亲近乱来精品 | 欧美色综合天天久久综合精品 | 在线免费黄色片 | 日韩av手机在线看 | 国产免费久久 | 亚洲在线视频播放 | 亚洲欧美在线综合 | 婷婷网站天天婷婷网站 | 日日日视频 | 人成在线免费视频 | 欧美日本一二三 | 99在线高清视频在线播放 | 日日激情| 操操操干干干 | 国产亚洲精品久久久久久移动网络 | 久久久久免费网 | 五月开心婷婷网 | 日韩在线不卡av | 国产对白av | 日韩在线中文字幕视频 | 97在线视 | 超碰在线97观看 | 欧美中文字幕久久 | 欧美另类美少妇69xxxx | 国产原厂视频在线观看 | 2023亚洲精品国偷拍自产在线 | 亚洲美女免费精品视频在线观看 | 日韩精品一区二区三区外面 | 狠狠亚洲| 国产高清亚洲 | 久久伊人91 | 91视频免费网站 | 色婷婷激情电影 | 二区三区毛片 | 24小时日本在线www免费的 | 日本精品中文字幕 | 日韩欧美一区二区三区在线 | 久草在线视频在线观看 | 青青色影院 | 久草在线高清 | 91综合视频在线观看 | 久久这里只有精品9 | 久久久午夜剧场 | 久久黄色影院 | 狠狠操欧美 | 99视频在线精品国自产拍免费观看 | 黄视频色网站 | 日韩欧美视频免费看 | 日韩免费高清在线观看 | 日本丰满少妇免费一区 | 91视频免费看网站 | 精品在线播放视频 | 免费麻豆网站 | 中文字幕在线日 | 国产日韩欧美在线播放 | 久久精品视频免费观看 | 国产成人一区二区精品非洲 | 一区二区精 | 国产精品成人自拍 | 免费看黄20分钟 | 日本一区二区三区免费看 | 欧美肥妇free| 欧美日本在线观看视频 | 亚洲人成网站精品片在线观看 | 97精品国产97久久久久久春色 | 91精品网站在线观看 | 免费av观看| 亚洲全部视频 | 97超级碰碰碰视频在线观看 | 色多多视频在线 | 亚洲婷婷丁香 | 久久久午夜影院 | 日韩av成人在线观看 | 在线视频 一区二区 | 国产黄在线免费观看 | 人人澡超碰碰97碰碰碰软件 | 免费看一级一片 | 国产黄色精品视频 | 成人97视频一区二区 | 九九在线免费视频 | 亚洲国产人午在线一二区 | 中文字幕久久久精品 | 最新午夜| 播五月综合 | 久久久免费精品 | 成人免费在线观看av | 西西444www大胆高清视频 | 国产精成人品免费观看 | 精品在线一区二区三区 | 一级免费看视频 | 国产一区精品在线观看 | 黄色片网站免费 | 97精品国产一二三产区 | 久久国产精品一区二区三区四区 | 久久精品在线 | 久久99久久99精品免观看粉嫩 | 国产精品美女www爽爽爽视频 | 国产精品女人久久久 | 国产69精品久久app免费版 | 色中文字幕在线观看 | 亚洲视频精选 | 中文字幕视频 | 亚洲欧洲精品一区二区精品久久久 | 91粉色视频 | 91香蕉亚洲精品 | 久久男女视频 | 狠狠操欧美| 在线看片91 | 婷婷九九| 婷婷激情久久 | 欧美日韩精品在线视频 | 中文字幕 成人 | 国产精品一区专区欧美日韩 | 在线精品亚洲 | 精品中文字幕在线观看 | 精品uu| 国产精品久久久久永久免费 | 久草国产在线 | 日韩高清在线一区二区三区 | 久久99精品国产99久久6尤 | 日韩在线视频免费播放 | 青青河边草免费直播 | 播五月婷婷 | 日日夜夜精品网站 | 96av麻豆蜜桃一区二区 | 免费在线成人 | 麻豆一区二区三区视频 | 亚洲1区 在线 | 99国内精品久久久久久久 | 亚洲天天综合网 | 干干日日| 在线观看av免费观看 | 99精品免费久久久久久日本 | 国产精品入口传媒 | 伊人精品影院 | 黄色三级免费 | 精品国产91亚洲一区二区三区www | 在线免费观看av网站 | 国产精品乱码久久久久久1区2区 | 国产成人三级一区二区在线观看一 | a色视频 | 亚洲不卡av一区二区三区 | 在线观看日韩中文字幕 | 国产自偷自拍 | 一区二区男女 | 9ⅰ精品久久久久久久久中文字幕 | 国产精品免费观看久久 | 亚洲做受高潮欧美裸体 | 亚洲理论电影网 | www.天天干| 精品1区2区| av国产网站 | 久久久精品一区二区三区 | 欧美黑人性猛交 | 免费看污片 | 久久成人18免费网站 | 国产成视频在线观看 | 日本在线中文 | 国产经典 欧美精品 | 91香蕉视频黄 | 四虎影院在线观看av | 97精品国产aⅴ | 日韩乱码在线 | 免费观看国产精品视频 | 久久久国产精品久久久 | 国内精品视频一区二区三区八戒 | 午夜av在线电影 | 欧美福利精品 | 欧亚久久 | 国产精品不卡在线观看 | 久久久久久国产精品美女 | 99视频久 | 久久精品欧美视频 | 中文字幕欧美三区 | 国内精品亚洲 | 91在线看 | 99久久国产免费,99久久国产免费大片 | 日韩久久精品一区二区三区下载 | 天天操天 | 99热这里只有精品在线观看 | 人人插人人看 | 中文字幕在线免费观看视频 | 免费久久精品视频 |