日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

从 Word2Vec 到 BERT

發(fā)布時間:2024/10/8 编程问答 48 豆豆
生活随笔 收集整理的這篇文章主要介紹了 从 Word2Vec 到 BERT 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

作者丨張寒

學(xué)校丨復(fù)旦大學(xué)碩士生

研究方向丨自然語言處理

如果讀完本文你覺得對數(shù)學(xué)公式很懵,強(qiáng)烈建議去 Jay Alammar 的博客看一下,他的博客主要是對每個概念做可視化的,看了會茅塞頓開,簡直是寶藏!每篇文章我也會放上他相對應(yīng)的概念的地址。

1

Word2Vec

The Illustrated Word2Vec:

https://jalammar.github.io/illustrated-word2vec/

“You shall know a word by the company it keeps” (J. R. Firth 1957: 11)

一種重要的語言學(xué)思想是 Firth 在 1957 年提出的,一個詞語的意思應(yīng)該由它的上下文來表示。

在 word2vec 出現(xiàn)之前,一種簡單的對詞的表示是 One-hot 向量表示,即一個位置是 1,其余位置都是 0,這種表示方法的最大缺點(diǎn)在于沒辦法表示出詞語之間的相似性。

到了 2013 年,Tomas Mikolov 連放幾篇劃時代的論文,其中最為重要的是兩篇,[1] 首次提出了 CBOW 和 Skip-gram 模型,進(jìn)一步的在 [2] 中,又介紹了幾種優(yōu)化訓(xùn)練的方法,包括 Hierarchical Softmax(當(dāng)然,這個方法早在 2003 年,Bengio 就在他提出 NNLM 論文中的 Future Work 部分提到了這種方法,并于 2005 年把它系統(tǒng)化發(fā)表了一篇論文), Negative Sampling 和 Subsampling 技術(shù)。

放出兩篇論文后,當(dāng)時仍在谷歌工作的 Mikolov 又馬不停蹄的放出了大殺器——word2vec 工具,并在其中開源了他的方法。順便提一下的是,很多人以為 word2vec 是一種模型和方法,其實 word2vec 只是一個工具,背后的模型是 CBOW 或者 Skip-gram,并且使用了 Hierarchical Softmax 或者 Negative Sampling 這些訓(xùn)練的優(yōu)化方法。所以準(zhǔn)確說來,word2vec 并不是一個模型或算法,只不過 Mikolov 恰好在當(dāng)時把他開源的工具包起名叫做 word2vec 而已。

Language Models

首先,我們需要建立一個模型來表示一個句子的出現(xiàn)的概率,例如“The cat jumped over the puddle”,一個好的語言模型會給這樣一個句子高的概率,因為這個句子是通順的沒有語法錯誤的,而“stock boil fish is toy”就會得到一個很低的概率,我們記 n 個詞組成的一個句子序列的概率為:

如果假設(shè)所有的詞都是相互獨(dú)立的,那么就叫做 unigram 模型:

但是我們知道每一個詞不會是獨(dú)立的,它和前面的詞是有很大關(guān)系的,那么假設(shè)每一個詞與前一個詞相關(guān),就得到 bigram 模型:

以此類推,但這樣的模型有著明顯的缺點(diǎn):1)缺乏長期的依賴,因為只能建模到 n-1 個詞;2)隨著 n 的加大,計算和存儲要求呈指數(shù)上漲;3)單純基于統(tǒng)計詞頻,泛化能力差。

語言模型讓我們理解了一個序列怎么用概率來表示,接下來我們看兩個可以學(xué)習(xí)這些概率的模型。

CBOW

在前面舉的例子中,對于句子“The cat jumped over the puddle”,我們把 {“The", "cat","over","the","puddle"} 當(dāng)作上下文,把“jumped”當(dāng)作中心詞,這樣的一種模型叫做 Continuous Bag of Words (CBOW) Model。

我們創(chuàng)建兩個矩陣,和,其中 n 是提前定義好的任意長度的向量空間的大小,V 是輸入詞矩陣,第 i 列表示的是詞的 n 維向量表示,我們記第 i 列為,同樣的,U 是輸出詞矩陣,第 j 行表示的是詞的 n 維向量表示,我們記第 j 行為,值得注意的是這里每一個詞其實會學(xué)習(xí)兩個向量,其實簡單的說 CBOW 就是根據(jù)上下文來預(yù)測中心詞,而每一個詞會學(xué)習(xí)到兩個向量,一個是詞出現(xiàn)在上下文時的向量 input vector v,和詞出現(xiàn)在中心詞時的向量 output vector u。

下面我們來具體看看 CBOW 是怎么做的:

1. 首先我們生成大小為 m 的上下文詞的 one-hot 向量表示:,這里面每一個 x 是一個 |V|x1 維的上下文單詞的 one-hot 表示,前面 m/2 個,后面 m/2 個;

2. 通過與 V 矩陣相乘,得到每一個上下文詞的詞向量表示,即:

3. 對所有的上述向量做平均,得到:

4. 通過這個均值向量和 U?矩陣相乘,去得到一個”分?jǐn)?shù)向量“,即,因為相似向量的點(diǎn)乘結(jié)果是很高的,所以優(yōu)化模型時就會把相似詞的向量表示越來越靠近,去得到一個高的分?jǐn)?shù);

5. 把分?jǐn)?shù)轉(zhuǎn)變成概率表示;

6. 我們希望產(chǎn)生的這個概率分布,跟真實的概率分布很接近,這個真實概率分布其實也就是真實中心詞的 One-hot 向量表示,所以其實就是希望真實中心詞的預(yù)測概率接近 1。

以上就是在我們?nèi)绻?V, U 矩陣時,模型是如何工作的,那么怎么得到這個兩個矩陣呢?首先建立一個目標(biāo)函數(shù),這里使用交叉熵:

實際上 y 是 One-hot 向量,所以可以簡化為:

而,,綜上最小化目標(biāo)函數(shù)就等價于得到預(yù)測中心詞最好的那個模型的參數(shù),也就是 V, U?矩陣:

接下來用 SGD 優(yōu)化目標(biāo)函數(shù),去更新所有相關(guān)的詞向量和:

Skip-gram

另一種方法是給定中心詞"jumped",模型會去預(yù)測或者生成周圍的上下文詞,這種模型叫做 Skip-gram model,SG 和 CBOW 是完全反過來的模型,我們首先有一個中心詞的 one-hot 向量表示 x,然后輸出詞的向量表示是,U, V 矩陣和前面 CBOW 中一樣:

1. 首先生成中心詞的 ont-hot 向量,;

2. 通過和 V 矩陣相乘得到中心詞的詞向量表示;

3. 通過和 U 矩陣相乘得到“分?jǐn)?shù)向量”,;

4. 把“分?jǐn)?shù)”轉(zhuǎn)變成概率,這里,要轉(zhuǎn)變成 2m 個 |V|x1 的上下文詞的向量;

5. 我們希望以上結(jié)果,跟真實概率足夠的接近。

不同于 CBOW,SG 在生成目標(biāo)函數(shù)的時候用了一個假設(shè),假設(shè)給定中心詞,所有輸出的詞都是完全獨(dú)立的。

通過這樣的目標(biāo)函數(shù),用 SGD 去迭代更新參數(shù),同時目標(biāo)函數(shù)也可以記為:

Optimization Method

Mikolov 對于 SG 的評價是這些公式是“impractical”的,他的言下之意是計算復(fù)雜度依然和詞典大小有關(guān),而這通常都意味著非常非常大,于是在論文 [2] 中首先提到了 Hierachical Softmax,基本思想就是首先將詞典中的每個詞按照詞頻大小構(gòu)建出一棵 Huffman 樹,保證詞頻較大的詞處于相對比較淺的層,詞頻較低的詞相應(yīng)的處于 Huffman 樹較深層的葉子節(jié)點(diǎn),每一個詞都處于這棵 Huffman 樹上的某個葉子節(jié)點(diǎn)。

接著提出了 Negative Sampling 負(fù)采樣的思想,普通 softmax 的計算量太大就是因為它把詞典中所有其他非目標(biāo)詞都當(dāng)做負(fù)例了,而負(fù)采樣的思想特別簡單,就是每次按照一定概率隨機(jī)采樣一些詞當(dāng)做負(fù)例,從而就只需要計算這些負(fù)采樣出來的負(fù)例了。

對于 SG,新的目標(biāo)函數(shù)變成了:

對于 CBOW,新的目標(biāo)函數(shù)變成了:

仔細(xì)和普通 softmax 進(jìn)行比較便會發(fā)現(xiàn),將原來的 |V| 分類問題變成了 K 分類問題,這便把詞典大小對時間復(fù)雜度的影響變成了一個常數(shù)項。

GloVe

上述 word2vec 方法,缺點(diǎn)是基于固定大小的窗口,對局部的語料進(jìn)行特征提取,其實在 word2ve c出現(xiàn)之前, LSA(Latent Semantic Analysis)是一種比較早的 count-based 的詞向量表征工具,它也是基于 co-occurance matrix 的,只不過采用了基于奇異值分解(SVD)的矩陣分解技術(shù)對大矩陣進(jìn)行降維,而我們知道 SVD 的復(fù)雜度是很高的,所以它的計算代價比較大。還有一點(diǎn)是它對所有單詞的統(tǒng)計權(quán)重都是一致的 ,而 GloVe 就結(jié)合了兩者的優(yōu)點(diǎn)。

GloVe 的實現(xiàn):?

1. 首先根據(jù)語料庫去構(gòu)建一個 co-ocurrence matrix 共現(xiàn)矩陣,其中每一個元素代表單詞和上下文詞在特定的上下文窗口內(nèi)共同出現(xiàn)的次數(shù),并且 GloVe 還提出了一個 decreasing weighting ,就是基于兩個詞在上下文窗口中的距離 d,去給一個權(quán)重 1/d,也就是說距離遠(yuǎn)的兩個詞,占總計數(shù)的權(quán)重就小;

2. 構(gòu)建詞向量和共現(xiàn)矩陣之間的近似關(guān)系,目標(biāo)函數(shù)為:?

其中:

這個目標(biāo)函數(shù)基本形式就是簡單的 mean square loss,只不過多了一個權(quán)重函數(shù),感興趣的話 [3] 中可以看下作者是怎么得到這個公式的。

word2vec 的方法極大的促進(jìn)了 NLP 的發(fā)展,利用預(yù)訓(xùn)練好的詞向量來初始化網(wǎng)絡(luò)結(jié)構(gòu)的第一層幾乎已經(jīng)成了標(biāo)配,尤其是在只有少量監(jiān)督數(shù)據(jù)的情況下,如果不拿預(yù)訓(xùn)練的 embedding 初始化第一層,要么你是土豪,可以有大量的人工去標(biāo)注數(shù)據(jù),要么就是在蠻干。word2vec 開啟了一種全新的 NLP 模型訓(xùn)練方式,遷移學(xué)習(xí)。

Reference

[1] https://arxiv.org/pdf/1301.3781.pdf

[2] http://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf

[3] https://nlp.stanford.edu/pubs/glove.pdf

[4]?http://web.stanford.edu/class/cs224n/

[5] https://zhuanlan.zhihu.com/p/50443871

2

Transformer

The Illustrated Transformer:

https://jalammar.github.io/illustrated-transformer/

Seq2Seq + Attention

在說明 Transformer 之前,還是有必要簡述一下 attention 機(jī)制,RNN, LSTM, Seq2Seq 就不再贅述。

我們知道 Seq2Seq 是由一個 encoder 和一個 decoder 構(gòu)成, 編碼器負(fù)責(zé)把源序列編碼成向量,解碼器是一個語言模型,負(fù)責(zé)根據(jù)編碼的信息生成目標(biāo)序列 。這個結(jié)構(gòu)的問題在于,編碼器需要把整個 Source sentence 的信息全部編碼起來,這是 seq2seq 架構(gòu)的瓶頸所在,attention 機(jī)制就是解決這個瓶頸的一種方法,Attention 機(jī)制的核心想法就是:在解碼器的每一個時間步,都和編碼器直接連接,然后只關(guān)注 source sentence 中的特定的一部分。

假設(shè)編碼器的 hidden states 分別為。在解碼器的第一個時間步,解碼器的 hidden state 為,我們通過點(diǎn)乘得到當(dāng)前時間步的 attention scores:

再通過 softmax 轉(zhuǎn)換成 attention distribution(是一個概率分布,和為 1):

然后用這個概率分布去和編碼器的所有 hidden states 加權(quán)求和,得到 attention output:

最后把 attention output 和解碼器的 hidden state 合并起來得到,然后去執(zhí)行不用 attention 機(jī)制的 seq2seq 一樣的做法就好了。

這樣就得到了解碼器的第一個時間步的輸出,后面以此類推,每一個時間步都會去“看一下”source sentence,去決定對哪一部分給予比較大的 attention。

這就是 seq2seq+attention 機(jī)制的概念,然后這樣的結(jié)構(gòu)終歸是要按照序列順序去 encoding 的,不好做分布式的計算,于是有了直接拋棄 RNN,LSTM 的 self-attention 機(jī)制,以及應(yīng)用了這個機(jī)制的 Transformer [1]。

Transformer Architecture

大多數(shù)有效的處理序列的模型都是基于 encoder-decoder 架構(gòu)的,給定序列 x,經(jīng)過 encoder 編碼成隱藏向量 z,再通過 decoder 每個時間步的去生成序列 y,Transformer 通過在 encoder 和 decoder 中都使用堆疊的 self-attention 和 point-wise 和全連接層,來延續(xù)了這樣的整體架構(gòu):

Encoder and Decoder Stacks?

Encoder:編碼器是由 6 個相同的層組成,每一層有兩個子層,第一個子層是一個 Multi-head self-attention 機(jī)制,第二層是一個簡單的,位置對應(yīng)的全連接神經(jīng)網(wǎng)絡(luò),還加入了每一個子層都加入了殘差網(wǎng)絡(luò) + normalization 層,所以每一個子層的輸出其實可以看作,Sublayer(x) 是子層自己的函數(shù),為了容易計算這些殘差層,模型中的所有子層,包括 embedding 層,輸出都是維。

Decoder:解碼器也是由 6 個相同的層組成,在編碼器的那兩個子層的基礎(chǔ)上又加入了一個層,用于對 encoder 的輸出做 multi-head attention,和 encoder 一樣,每一個子層也都加入了殘差結(jié)構(gòu)和標(biāo)準(zhǔn)化層,還加入 mask 操作。

Decoder 的 attention 實際上包含兩部分,第一部分是帶有 mask 的 Self-attention,通過 mask 的作用將 decode 階段的 attention 限定只會 attention 到已經(jīng)生成過的詞上,因此叫做 Mask Self-attention;第二部分是普通的 Self-attention 操作,不過這個時候的 K 和 V 矩陣已經(jīng)替換為 Encoder 的輸出結(jié)果,所以本質(zhì)上并不是一個 Self-attention 了,self-attention 的 Q, K, V 都來自于自身。?

不懂沒關(guān)系,下面來詳細(xì)剖析下 Transformer 的結(jié)構(gòu):?

首先把 input sentence 做 input embedding 后的結(jié)果當(dāng)作輸入給第一個 encoder,這里有一個 positional encoding 稍后再說,那么到達(dá)第一個 encoder 的第一個 sub-layer,下面我們先說下什么是 Self-Attention。

Self-Attention in Detail

一個 attention 內(nèi)部機(jī)制可以看作一個 query,應(yīng)用到一組 key-value 對上的操作,其中一個 query 和所有 keys, values 都是向量,結(jié)果可以看作是對 values 的加權(quán)求和,其中每個 value 的權(quán)重是通過當(dāng)前 query 和對應(yīng)的 key 做點(diǎn)乘得到的(Scaled Dot-Product Attention), 而 Multi-Head Attention 就是多個 attention layer 并行計算的。

接下來首先看單個 self-attention 如何使用這些向量去計算:

1. 第 1 步,為每一個 encoder 的輸入向量 x 創(chuàng)建 3 個向量,分別為 query, key, value,怎么來的呢?就是用輸入向量和三個權(quán)重矩陣相乘,得到三個向量 q, k, v;

2. 第 2 步是計算“分?jǐn)?shù)”,假設(shè)我們在計算 self-attention 中的第一個詞,這時我們要計算輸入序列中所有其他詞和第一個詞之間的“分?jǐn)?shù)”,“分?jǐn)?shù)”決定了我們在 encode 第一個詞的時候,對其他詞分別給多少的“關(guān)注度”,“分?jǐn)?shù)”是通過 q, k 的點(diǎn)乘計算的,比如當(dāng)在 encode 第一個詞時,就需要把 q1 和每一個位置的 k 點(diǎn)乘,得到“分?jǐn)?shù)”矩陣,如第一個分?jǐn)?shù)是 q1k1,第二個分?jǐn)?shù)是 q1k2......;

3. 第 3、4 步是把分?jǐn)?shù)除以,即除以 k 向量的維度開根號,paper 中用的,所以就是除以 8,這樣可以得到更多穩(wěn)定的梯度,然后把分?jǐn)?shù)矩陣通過 softmax 轉(zhuǎn)變成概率,這個概率衡量了你想要表達(dá)多少某一個位置這個詞的信息。顯然,當(dāng)前位置的詞會得到最大的 softmax score,但是有時在關(guān)注與當(dāng)前位置相關(guān)的另一個詞時是有用的;

4. 第 5 步,把 softmax score 和每一個 value 向量相乘,目的是保留一些想要關(guān)注的部分,拋棄不相關(guān)的部分,比如乘 0.0001;

5. 第 6 步,把上述加權(quán) value 向量求和,這樣就得到了 self-attention 層的在當(dāng)前位置的輸出(比如第一個詞)。

實際的使用中,往往輸入的是一個矩陣 X,那么把 q, k, v 都換成矩陣就好了記一組 queries 為矩陣 Q,keys 和 values 也表示成矩陣和,我們的輸出可以記為:

Multi-Head Attention?

作者還介紹了一種 Multi-head attention 機(jī)制,這個機(jī)制在兩個方面提升了表現(xiàn):?

1. 它擴(kuò)展了模型關(guān)注不同的位置的能力。確實,在前面單個詞的例子中已經(jīng)說過,對第一個詞得到的結(jié)果 z1,雖然也能給每一個詞一些權(quán)重,但是顯然是它自己的權(quán)重最大,這個在翻譯比如:“ The animal didn’t cross the street because it was too tired ”時有用,我們想知道“it”指代的是誰;

2. 它給了 attention layer 多個“表示子空間”,Multi-head attention 不是一組,而是多組權(quán)重矩陣(paper 中是 8 個),每一組開始時都是隨機(jī)初始化的,然后訓(xùn)練模型,每一組都會把輸入 embedding 向量或者是低一級的 encoders/decoders 的輸出向量,映射到不同的表示子空間。

用這樣的機(jī)制,我們得到了 8 個不同的 Z 輸出矩陣,然后下一個 deed-forward layer 只接受一個矩陣(每一行是一個詞的向量),所以我們這樣處理:?

直接把 8 個輸出矩陣拼接起來,再與一個權(quán)重矩陣 WO 相乘,得到一個輸出矩陣,這個句子收集到了所有 attention heads 的信息,我們把這個發(fā)給后面的 FFNN。

整個流程如下圖:

The Residuals and Normalization Layer?

至此我們以及知道第一個 encoder 的第一個 sub-layer 里 Multi-head attention 是怎么回事,接下來以上生成的 Z 矩陣還要通過一個殘差 + normalization 層,所以第一個子層的輸出其實可以看作 LayerNorm (x+MultiHead(x))。

再接下來到第二個 sub-layer,是一個 Feed Forward Neural Netword,加上跟第一個子層相同的殘差 + normalization 層,所以第二個子層可以看作 LayerNorm (x+FFNN(x)),這里值得注意的是,全連接層對于 Z 矩陣中的每一個向量是分布式進(jìn)行的,不過權(quán)重是一樣的,下圖很好的說明了這一點(diǎn):

現(xiàn)在我們已經(jīng)完全縷清第一個 encoder 是怎么樣進(jìn)行的,后面的 5 個 encoder 都以此類推,到最后一個 encoder 產(chǎn)生的結(jié)果,會被 decoder 使用,至此 encoding 部分結(jié)束,接下來看 decoding 才是重頭戲。

decoder 首先接受第一個輸入,一般是一個起始符例如 </s>,這是來到第一個 decoder 的第一個 sub-layer,這里跟前面說的 encoder 的 Multi-Head Attention,都屬于 self-attention,區(qū)別是這里加了一個 Mask 操作,讓輸出序列只能基于當(dāng)前位置的前面的序列做預(yù)測,具體做法是給后面序列一個負(fù)無窮的分?jǐn)?shù),這樣在計算 softmax 時就是 0。

到了第一個 decoder 的第二個 sub-layer,這里的“Encoder-Decoder Attention”layer,實際上不屬于 self attention,因為它的 queries 來自下面的 sub-layer 的輸出,而 keys 和 values 來自 encoder 的輸出 Z,Z 會 transformed into a set of K, V,提供給 6 個的每一個 decoder 中間的“Encoder-Decoder Attention”layer 使用。

接下來第一個 decoder 的 FFNN 層,和前面 encoder 的一樣,不再贅述。

至此一個 decoder 的內(nèi)部結(jié)構(gòu)結(jié)束,重復(fù) 6 個一樣的 decoder 后,來到了最后的 Linear and Softmax Layer。

The Final Linear and Softmax Layer?

The Linear layer 是一個簡單的全連接神經(jīng)網(wǎng)絡(luò),把 decoders 生成的輸出,映射到一個很大的向量,叫做 Logits vector。

假設(shè)模型訓(xùn)練集有 10000 個唯一的英文單詞,那 Logits vector 就有 10000 個單元,每個單元表示唯一單詞的分?jǐn)?shù),再經(jīng)過一個 softmax 層,把分?jǐn)?shù)轉(zhuǎn)變成概率,最高概率的單詞將被選擇出來,作為當(dāng)前時間步的輸出。

Positional Encoding?

補(bǔ)充一點(diǎn)前面沒說的,已我們前面敘述的做法,input sentence 的順序信息被完全忽略了,然而往往這個信息還是很有用的,所以加入了一個 positional encoding 機(jī)制,即給每個 input embedding 在額外加上一個位置向量,位置向量會在詞向量中加入了單詞的位置信息,這樣 Transformer 就能區(qū)分不同位置的單詞了。

這個位置向量怎么來呢?有兩種辦法:1)基于數(shù)據(jù)去學(xué)習(xí);2)自己設(shè)計編碼規(guī)則,作者采用的是第二種,給出的是如下公式:

至于實現(xiàn)可以去 Google 開源的 tensor2tensor 里的 get_timing_signal_1d() 函數(shù)去找:


https://github.com/tensorflow/tensor2tensor/blob/23bd23b9830059fbc349381b70d9429b5c40a139/tensor2tensor/layers/common_attention.py

結(jié)論

以上為 Transformer 的整個 forward pass 的過程,訓(xùn)練過程中再去做 backward pass 更新參數(shù),值得一提的是在選擇最終 output sentence 有兩種辦法 greedy search 或 beam search,這個在我上文對 Attention 機(jī)制的理解里有提到過。

Reference

[1]?https://jalammar.github.io/illustrated-transformer/

[2]?https://arxiv.org/abs/1706.03762

[3]?http://web.stanford.edu/class/cs224n/

[4]?https://zhuanlan.zhihu.com/p/50443871

3

BERT

The Illustrated BERT:

https://jalammar.github.io/illustrated-bert/

Introduction

語言模型在很多 NLP tasks 上都很有用,其中包括句子級別的任務(wù),分析句子之間的關(guān)系,也有單詞級別的任務(wù),比如命名實體識別,問答系統(tǒng)。

在 BERT (Bidirectional Encoder Representations from Transformers) 出現(xiàn)之前,有兩種在下游任務(wù)應(yīng)用 pre-trained 語言表示的方法,分別是以 ELMo 為代表的 feature-based 方法,在特定任務(wù)使用特定結(jié)構(gòu),其中包含 pre-trained 表示好的特征作為附加特征,還有一種 fine-tuning 方法,以 GPT 為代表,在下游任務(wù)中用簡單的 fine-tuning 來訓(xùn)練之前所有 pre-trained 的參數(shù)。兩種方法在 pre-training 時目標(biāo)函數(shù)是一致的,都使用單向語言模型去學(xué)習(xí)語言表示。?

而單向的標(biāo)準(zhǔn)語言模型,嚴(yán)重限制了尤其是 fine-tuning 類方法的語言表示能力,有的模型里例如 GPT,使用從左到右的結(jié)構(gòu),在 Transformer 的 self-attention layer 每個詞只能注意之前出現(xiàn)過的詞,這種優(yōu)化是句子級別的,當(dāng)應(yīng)用到單詞級別的任務(wù)時又是不對的,每個詞應(yīng)該和上下文都有關(guān),所以構(gòu)建雙向結(jié)構(gòu)來關(guān)聯(lián)上下文是很重要的。

BERT

整個 BERT 分為兩步,pre-training 和 fine-tuning,在 pre-training 部分,在不同的 pre-training 任務(wù)中在未標(biāo)記數(shù)據(jù)上進(jìn)行訓(xùn)練,在 fine-tuning 部分,模型先使用 pre-trained 的參數(shù)初始化,然后在下游任務(wù)中用標(biāo)記數(shù)據(jù)對所有參數(shù)進(jìn)行微調(diào),雖然初始化用的都是相同的 pre-trained 參數(shù),但是在下游不同任務(wù)中可以有不同的 fine-tuned 模型。

Model Architecture:BERT 作者使用的 Transformer 就是之前說過的普通的 Transformer,作者構(gòu)建了兩個模型,一個 BERT BASE,12 個 Transformer 模塊層,768 個隱層,12 個 self-attention 中的 head,總參數(shù) 110M,一個 BERT LARGE,24 個 Transformer 模塊層,1024 個隱層,16 個 self-attention 中的 head,總參數(shù) 340M。

Input/Output Representations:為了使 BERT 能適應(yīng)各式各樣的下游任務(wù),我們的輸入表示要能夠用一個序列清晰的同時可以表示一個單句子和一個句子對(比如(問題,答案)),這時在 BERT 中的“sequence”不再是單一的語言意義上的一個句子,而是任意跨度的連續(xù)文本。

在序列開頭永遠(yuǎn)放一個 [CLS] 標(biāo)記,在分類任務(wù)的時候這個表示類別,不是分類任務(wù)可以忽略,對于句子對,用了兩個方法區(qū)分,第一,每個句子后插如一個 [SEP] 標(biāo)記,第二,加入一個序列向量用來區(qū)分一個詞是屬于句子 A 還是句子 B。

實際最后的 input embedding,是三部分向量相加,單詞本身的 Token embedding,單詞歸屬信息的 segment embedding,位置信息的 position embeddings,這里的位置信息,在前面說 Transfomer 時提過,有兩種方法:1)自己訓(xùn)練;2)自己編碼,Transformer 使用的是第二種,奇怪的 sin、cos 函數(shù)編碼位置 ,而這里用的是第一種,初始化,完了也加入到訓(xùn)練參數(shù)中自己去 train。

Pre-training BERT

BERT 使用兩個非監(jiān)督任務(wù)來 pre-train 模型。

TASK1 Masked LM:

為了訓(xùn)練深度雙向模型,作者使用了一種隨機(jī)掩蓋一定百分比的輸入詞的方法,然后去預(yù)測這些被掩蓋的詞,叫做“Masked LM” (MLM),其實就可以想象成是完形填空,在作者實驗中使用的是 15% 的詞,也就是說有隨機(jī)選擇的 15% 的詞會被 masked 掉,然后去預(yù)測這些被 masked 掉的詞是什么,這時實際上已經(jīng)變成一個單純分類問題了,不是傳統(tǒng)意義上的生成語言模型了,根據(jù)這個位置的 hidden state 預(yù)測是什么 token,而不是預(yù)測下一個詞的概率了。

雖然這樣可以建立一個雙向預(yù)訓(xùn)練模型,但是缺點(diǎn)是這樣預(yù)訓(xùn)練階段和微調(diào)階段就產(chǎn)生了不匹配的問題,因為 mask token 在微調(diào)階段不會出現(xiàn),也就是說在預(yù)訓(xùn)練階段你是加了 [mask] 的去訓(xùn)練,而微調(diào)階段沒有加 [mask] 訓(xùn)練,為了盡可能的把模型調(diào)教的忽略這些標(biāo)記的影響,作者通過如下方式來告訴模型這些是噪聲,請忽略它:?

如果一個 token 被選中,那么我們把這個 token:

1. 80% 的時間換成 [MASK] 標(biāo)記,即掩蓋掉;

2. 10% 的時間隨機(jī)換成另外一個詞(還是要預(yù)測正確的詞的);

3. 10% 的時間不變,仍然是原詞 (還是要預(yù)測該位置的詞的)。

還有一個問題是只有 15% 的詞被預(yù)測,而傳統(tǒng)語言模型是每一個詞都會被預(yù)測的,所以 MLM 收斂比較慢。

如上圖,用來通過 cross-entropy 預(yù)測原來這個位置的 token 是什么,屬于 Mask LM 任務(wù)。

TASK2 Next Sentence Prediction:?

很多下游任務(wù)比如 QA,NLI (Natural Language Inference) 都是基于對兩個句子之間的關(guān)系去理解的,但是在語言模型里沒有捕捉到這個信息,BERT 中就為了解決這個問題,加了一個 NSP 訓(xùn)練任務(wù),50% 的時間選擇句子 A 真正的下一個句子 B 作為一個句子對(標(biāo)記為 IsNext),50% 的時間選擇句子 A 和隨機(jī)句子作為句子對(標(biāo)記為 NotNext),訓(xùn)練數(shù)據(jù)就是這樣,雖然很簡單,但是很有效,有點(diǎn)句子級別的負(fù)采樣的味道。

如上圖,句子級別的信息被 encoding 在 [CLS] 標(biāo)記里,這個做法乍一看有點(diǎn)費(fèi)解,其實 Transformer 是可以無視空間和距離的把全局信息 encoding 進(jìn)每個位置的,而 [CLS] 作為句子/句對的表示是直接跟分類器的輸出層連接的,因此其作為梯度反傳路徑上的“關(guān)卡”,當(dāng)然會想辦法學(xué)習(xí)到分類相關(guān)的上層特征,如上圖 C,用來做 NSP 任務(wù)。

Fine-tuning BERT

對于每個任務(wù),我們只需將特定于任務(wù)的輸入和輸出插入 BERT 并對所有參數(shù)進(jìn)行端到端的 fine-tune。

在 fine-tuning 之前只需根據(jù)特定任務(wù)對結(jié)構(gòu)做簡單的改變,例如針對句子級別的分類任務(wù)(例如情感分析),取第一個 [CLS] 的輸出表示,傳給一個 softmax 層得到分類結(jié)果輸出;對于單詞級別的分類(例如 NER),取所有 token 的最后層 transformer 輸出,傳給 softmax 層做分類,總之改變都很簡單,就加一層神經(jīng)網(wǎng)絡(luò)就好了。


然后微調(diào)很簡單,因為 Transformer 中的 self-attention 機(jī)制允許 BERT 通過改變適當(dāng)?shù)妮斎牒洼敵鰜韺υS多下游任務(wù)(無論它們涉及單個文本還是文本對)進(jìn)行建模。

結(jié)論

BERT 使用了 MLM+NSP 的多任務(wù)學(xué)習(xí)模式,并利用 Transformer 的 self-attention 機(jī)制實現(xiàn)雙向功能,設(shè)計了更通用的輸入層和輸出層,適配了多任務(wù)下的遷移學(xué)習(xí)

關(guān)于 BERT 還有很多細(xì)節(jié)沒有深入,后續(xù)會再繼續(xù)深入。

點(diǎn)擊以下標(biāo)題查看更多往期內(nèi)容:?

  • 深度長文:NLP的巨人肩膀(上)

  • NLP 的巨人肩膀(下):從 CoVe 到 BERT

  • 站在BERT肩膀上的NLP新秀們

  • 后BERT時代的那些NLP預(yù)訓(xùn)練模型

  • 自然語言處理中的語言模型預(yù)訓(xùn)練方法

  • 從三大頂會論文看百變Self-Attention

#投 稿 通 道#

?讓你的論文被更多人看到?

如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識的人。

總有一些你不認(rèn)識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?

PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得技術(shù)干貨。我們的目的只有一個,讓知識真正流動起來。

?????來稿標(biāo)準(zhǔn):

? 稿件確系個人原創(chuàng)作品,來稿需注明作者個人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?

? 如果文章并非首發(fā),請在投稿時提醒并附上所有已發(fā)布鏈接?

? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會添加“原創(chuàng)”標(biāo)志

???? 投稿郵箱:

? 投稿郵箱:hr@paperweekly.site?

? 所有文章配圖,請單獨(dú)在附件中發(fā)送?

? 請留下即時聯(lián)系方式(微信或手機(jī)),以便我們在編輯發(fā)布時和作者溝通

????

現(xiàn)在,在「知乎」也能找到我們了

進(jìn)入知乎首頁搜索「PaperWeekly」

點(diǎn)擊「關(guān)注」訂閱我們的專欄吧

關(guān)于PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。

▽ 點(diǎn)擊 |?閱讀原文?| 獲取最新論文推薦

總結(jié)

以上是生活随笔為你收集整理的从 Word2Vec 到 BERT的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

97在线观看视频免费 | 久久久久久久久久久久影院 | 天天玩天天操天天射 | 天天搞天天 | 久久美女免费视频 | 特黄一级毛片 | 久草在线观看 | 丁香激情五月 | 亚洲欧美成人在线 | 欧洲成人av | 狠狠网站 | 一本色道久久综合亚洲二区三区 | 99久高清在线观看视频99精品热在线观看视频 | 国产一区视频在线观看免费 | 成人动漫一区二区 | 国产一级片在线播放 | 在线免费看黄色 | 精品一二三四在线 | 亚洲闷骚少妇在线观看网站 | 在线免费av网 | 夜色资源站wwwcom | 久久亚洲欧美日韩精品专区 | 色噜噜在线观看 | 久久久久久久久精 | 911精品美国片911久久久 | 五月天伊人 | 91精品一区二区三区蜜桃 | 手机在线黄色网址 | 色射色 | 久久不卡av | 精品久久久久久综合 | 亚洲激情在线播放 | 国内精品免费 | 日日干日日色 | 五月婷婷丁香在线观看 | 国产私拍在线 | 在线天堂v | 欧美激情操| 欧美久久九九 | 91av视频在线观看 | www.久久成人 | 国产精品正在播放 | 91麻豆精品国产91久久久久久久久 | 亚洲成人麻豆 | 天天se天天cao天天干 | 九草视频在线观看 | 国产一区在线视频 | av大全免费在线观看 | 久久夜色电影 | av一本久道久久波多野结衣 | 狠狠操91 | 国产成人精品一区二区在线 | 99视频在线免费播放 | 日本狠狠干 | 最近中文字幕大全中文字幕免费 | av一区在线播放 | 国产乱码精品一区二区蜜臀 | 999精品视频 | 欧美大香线蕉线伊人久久 | 久久精品国产v日韩v亚洲 | 久草视频在线看 | 91黄色免费网站 | 丁香婷婷久久 | 在线观看亚洲 | 色.www| 国产露脸91国语对白 | 日韩天天干 | 国产午夜三级一区二区三 | 99视频偷窥在线精品国自产拍 | 射综合网 | 日韩av伦理片 | 日日操天天射 | 免费看三级黄色片 | 精品麻豆入口免费 | 麻花传媒mv免费观看 | 男女男视频| 91色国产| 久久99久久99免费视频 | 国产一区电影在线观看 | av电影中文字幕在线观看 | 日韩视频在线不卡 | 日韩午夜在线播放 | 国产一区观看 | 天天干天天操天天入 | 久久九九九九 | 特级西西444www大精品视频免费看 | 国产精品久久久久久超碰 | 日本在线观看一区二区三区 | 免费国产在线观看 | 91成人看片 | 有码中文字幕在线观看 | 亚洲国产黄色片 | 国产99一区| 视频一区二区国产 | 国产五月色婷婷六月丁香视频 | 国产中文字幕在线视频 | 国产成人一区二区精品非洲 | 超碰在线公开免费 | 色婷婷综合久色 | 在线99热 | 欧美日韩综合在线观看 | 欧美精品久久久久久久久老牛影院 | 色综合久久五月 | 91亚州| 国产又粗又长又硬免费视频 | 91麻豆.com| 精品字幕 | 在线观看免费中文字幕 | 91大神精品视频在线观看 | 精品电影一区二区 | 欧美成a人片在线观看久 | 免费电影播放 | 国产成人99久久亚洲综合精品 | 亚洲精品一区二区精华 | 国产污视频在线观看 | 中文字幕在线观看av | 久久综合久久久 | 国产精品99精品久久免费 | 99精品视频精品精品视频 | 精品国产乱码久久久久久天美 | 亚洲国内精品 | 欧美日韩国产精品一区二区亚洲 | 国产高清在线免费 | 亚洲激情六月 | 久久精品一区二区国产 | 91九色老 | 97国产小视频 | 国产区免费 | 人人看人人爱 | 四虎4hu永久免费 | 91视频国产免费 | 日本中文字幕影院 | 久久国产一区 | 国产精品婷婷午夜在线观看 | av高清网站在线观看 | 99电影 | 国产精品久久久久免费观看 | 97网| 91久久人澡人人添人人爽欧美 | 九九免费精品视频 | 欧美日韩一级在线 | 亚洲 欧美变态 另类 综合 | 亚洲一区日韩在线 | 久久精品国产免费 | 国产精品久久久区三区天天噜 | 国产亚洲一区 | 国内外成人在线视频 | 日本黄网站 | 国产一卡在线 | 天天操狠狠操夜夜操 | 国产在线观看免费av | 黄在线 | 99久高清在线观看视频99精品热在线观看视频 | 亚洲精品麻豆视频 | 亚洲在线精品 | 黄色片网站av| 亚洲精品玖玖玖av在线看 | 91国内在线 | 99久久99精品 | 国产精品第二页 | 国产精品一区二区三区视频免费 | 国产一级二级三级在线观看 | 中文字幕在线一区二区三区 | 五月婷婷丁香网 | 日韩中文幕 | 久久久精品亚洲 | 一区二区欧美日韩 | 青春草免费视频 | 中文字幕在线观看免费高清完整版 | 五月天色综合 | 97人人爽| 黄色大片视频网站 | 欧美成人xxxxxxxx | 最近日韩免费视频 | 久草综合视频 | 日韩理论片中文字幕 | 日韩精品久久久免费观看夜色 | 日韩综合精品 | av看片在线 | 国产在线精品播放 | 久久91久久久久麻豆精品 | 国产精品一级在线 | 色天天综合网 | 三上悠亚一区二区在线观看 | 丁香网五月天 | 我爱av激情网 | 久久久久久久久久网站 | 色吊丝在线永久观看最新版本 | 91视频-88av| 天堂视频中文在线 | 丁香五月亚洲综合在线 | 日韩一区正在播放 | 天天综合视频在线观看 | 六月丁香综合 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 五月天婷婷综合 | 精品国产一区二区三区噜噜噜 | 欧美成a人片在线观看久 | 亚洲三级性片 | 在线不卡的av | 久久久久区 | 2024国产在线 | 天天干天天干 | 天天综合婷婷 | 国产福利小视频在线 | 五月天色站 | 91九色最新| 久草视频网 | 日韩视频免费观看高清 | 免费av网址在线观看 | 国产亚洲精品久久久久久无几年桃 | 麻豆国产网站入口 | 91精品国产一区 | 91高清在线看 | 久久99国产精品久久99 | 成人免费在线电影 | 精品久久九九 | 亚洲精品看片 | 亚洲资源网 | 国产精品精品久久久 | 欧美激情综合五月色丁香 | 天天看天天干天天操 | 亚洲一级片在线看 | 91精品国产九九九久久久亚洲 | 国产精品18久久久久久久久久久久 | 免费看网站在线 | 国产精品毛片一区二区 | 欧美日韩一级久久久久久免费看 | 91精品天码美女少妇 | 亚洲精品综合在线观看 | 成人免费精品 | 国产亚洲一区二区在线观看 | 国产破处视频在线播放 | 2023亚洲精品国偷拍自产在线 | 亚洲国产网站 | 天天爱天天射天天干天天 | 五月激情亚洲 | 国产精品原创 | 日本精品va在线观看 | 中文字幕在线一二 | 激情综合五月 | a在线视频v视频 | 久久高清精品 | 天天艹天天 | 99在线热播 | 免费在线电影网址大全 | 成人在线播放免费观看 | 在线观看免费高清视频大全追剧 | 超级碰视频 | 久久韩国免费视频 | 看av在线| 亚洲一级二级三级 | 久久精品3| 蜜臀精品久久久久久蜜臀 | 天天操天天操天天操天天 | 97超碰在线播放 | 成人免费色 | 亚洲精品免费看 | 日韩和的一区二在线 | 中文字幕免费高清在线观看 | 国产精品视频观看 | 国产精品av久久久久久无 | 欧美一区免费在线观看 | 亚洲欧美精品在线 | 亚洲精品欧美专区 | 黄色大片日本 | 久久国产精品一区二区三区四区 | 综合色站导航 | 91天堂在线观看 | 日韩精品欧美一区 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 精品在线观 | 91精品一区二区三区蜜臀 | 亚洲妇女av | 亚洲欧洲av | 综合亚洲视频 | 日日夜夜精品视频 | 日韩在线免费不卡 | 久久这里只有精品23 | 91精品视频在线看 | 亚洲高清国产视频 | 狠狠色丁香久久婷婷综合五月 | 国产成人61精品免费看片 | 成人av在线资源 | 黄色国产在线观看 | 欧美一区二区三区在线视频观看 | 欧美精品亚洲精品日韩精品 | 婷婷色五 | 操操碰| 99欧美精品 | 一区免费观看 | 国产免费观看高清完整版 | 黄色电影小说 | 91传媒激情理伦片 | 日韩免费在线一区 | 免费在线观看av网站 | 91视频免费看网站 | 久久99国产一区二区三区 | 黄色免费视频在线观看 | 探花在线观看 | 五月婷婷综合在线 | av线上看 | 色婷婷电影 | 国产在线视频一区二区 | 久久国内视频 | 国产精品视频地址 | 国产在线精品观看 | 国产高清中文字幕 | 六月婷婷久香在线视频 | 高清精品视频 | 97精品国产91久久久久久 | 欧美性生活小视频 | 亚洲美女精品视频 | 久久久久9999亚洲精品 | 四虎永久免费在线观看 | 午夜视频免费在线观看 | 国产在线v| 天天爽天天做 | 日本精a在线观看 | 婷婷成人在线 | 中文字幕资源在线 | 日韩在线免费高清视频 | 天天曰夜夜操 | 国内精品久久久久久久久久清纯 | 999久久久久久久久 69av视频在线观看 | 91免费黄视频 | 国产一在线精品一区在线观看 | 69国产精品视频 | 久久亚洲福利 | 色综合久久久久综合体 | 五月婷av| 91一区二区三区久久久久国产乱 | 天天操天天操天天操天天操天天操 | 五月开心婷婷网 | 九九热免费精品视频 | 国产视频一 | av观看免费在线 | 91免费视频网站在线观看 | 久久这里只精品 | 999成人| 亚洲精品视频偷拍 | 涩涩成人在线 | 久久久影视 | 成人久久 | 婷婷激情综合网 | 香蕉97视频观看在线观看 | 91久久偷偷做嫩草影院 | 欧美成人久久 | 一级片视频免费观看 | 亚洲欧洲精品在线 | 国产亚州av | 一区三区视频 | 日本中文乱码卡一卡二新区 | 成片免费观看视频大全 | 久草久热 | 久久久一本精品99久久精品66 | 国产精品福利一区 | 久久午夜网 | 黄色软件在线观看视频 | 五月天婷婷综合 | 亚洲人毛片 | 在线看国产| 国产精品99在线播放 | 精品国产成人在线 | 五月花丁香婷婷 | 国产精品成人一区二区 | 96视频免费在线观看 | av在线短片 | 精品久久久久久国产偷窥 | 国产成人精品一区二区三区福利 | 日韩久久精品一区二区 | 欧美a级在线免费观看 | 一区在线电影 | 久久久www成人免费精品张筱雨 | 丁香综合网 | 成人在线你懂得 | 欧美精品三级 | 欧美在线视频一区二区三区 | 一区二区精品国产 | 国产精品中文久久久久久久 | 99热网站| a级片韩国| 一本一本久久aa综合精品 | 人人爽人人爽 | 亚洲v欧美v国产v在线观看 | 四虎伊人| 91精品久久久久久久久久久久久 | 在线国产中文字幕 | 18pao国产成视频永久免费 | 高清精品久久 | 国产在线超碰 | 中文字幕一区二区三区视频 | 日韩成人免费在线电影 | 黄色免费高清视频 | 六月色婷婷 | 97精品国产91久久久久久 | 精品成人a区在线观看 | 国产精品福利午夜在线观看 | 欧美日韩国产伦理 | 国产精品久久久久久久久免费看 | 国产精品精品久久久久久 | 天天操夜操视频 | 日韩素人在线观看 | 精品麻豆 | 欧美精品久久久久久久久久丰满 | 久久精品国产亚洲 | 久久久久久网站 | 97天堂网 | 欧美一二三在线 | 天天操狠狠操夜夜操 | 天天色天天草天天射 | 美女在线免费观看视频 | 在线播放第一页 | 欧美黄色软件 | 91桃色国产在线播放 | www.久久婷婷 | 亚洲黄色影院 | 国产精品久久久久久一区二区三区 | 人人玩人人添人人 | 国内久久精品 | 在线电影中文字幕 | 国产精品久久久久久久久久白浆 | 日韩高清免费在线观看 | www.久久婷婷 | 国模视频一区二区 | 丝袜精品视频 | 波多野结衣电影久久 | 欧美日韩精品在线免费观看 | 久久久高清视频 | 色综合国产 | 国产精品久久久久久久久久不蜜月 | 国产手机在线 | 久久久电影网站 | 91麻豆操 | 久久99久久99精品免费看小说 | 欧美日韩3p | 中文字幕在线视频网站 | 懂色av一区二区三区蜜臀 | 国产人成看黄久久久久久久久 | 国产精品一区二区av日韩在线 | 婷婷精品国产欧美精品亚洲人人爽 | 日韩在线 | 中文字幕在线日亚洲9 | 综合网在线视频 | 免费高清在线视频一区· | 久久在线视频在线 | 99久久久久久久久 | 嫩草av影院 | 亚洲精品一区二区精华 | 1024久久 | 黄色三级免费网址 | 成人四虎 | 人人精品久久 | 国产美女视频免费观看的网站 | 婷婷免费在线视频 | 亚洲黄在线观看 | 99久久这里有精品 | 成人福利在线观看 | 久久久九色精品国产一区二区三区 | 伊人资源站 | 日本免费久久高清视频 | 国语自产偷拍精品视频偷 | 国产成人一区二区三区电影 | 日本精品在线看 | av丝袜美腿 | 一二三区av | 色网站免费在线观看 | 在线免费观看国产黄色 | 天天综合导航 | 久久99精品国产99久久6尤 | 日本午夜在线亚洲.国产 | 偷拍精偷拍精品欧洲亚洲网站 | 国产美女精品在线 | 在线观看a视频 | 超碰电影在线观看 | 在线免费黄色av | 国产午夜精品久久久久久久久久 | 开心激情五月婷婷 | 婷婷国产精品 | 韩国在线视频一区 | 最近2019好看的中文字幕免费 | 天天色天天综合 | 久久久网页 | 成人高清av在线 | 97av影院| 国产三级在线播放 | jizzjizzjizz亚洲 | 91成人在线免费观看 | 亚洲综合在线视频 | 婷婷久久综合九色综合 | 免费视频一区二区 | 四虎影视成人永久免费观看视频 | 伊人天堂网 | 欧美一区成人 | 日韩精品电影在线播放 | 婷婷丁香在线观看 | 国产午夜一级毛片 | 久久精品中文字幕少妇 | 国产精品久久久久久久久免费 | 久久激情五月婷婷 | av色网站 | 超碰免费在线公开 | 免费看黄色毛片 | 草久热 | 九九视频在线观看视频6 | 国产精品久久久久久久久久了 | 久久精品国产一区二区三 | 爱爱av在线 | 日韩精品久久久久久中文字幕8 | 少妇bbbb| 亚洲黄a | 国产日韩欧美在线 | 久久人人97超碰com | 国产成人久久精品一区二区三区 | 亚洲精品国产精品久久99热 | 国产视频一区二区在线观看 | 国产一区二区电影在线观看 | 久久久久久久久久久综合 | 婷婷电影在线观看 | 天天草网站 | 欧美在线99 | 国产一区二区播放 | 久久99久久99精品免观看粉嫩 | 午夜视频在线观看一区 | 福利网在线 | 国产一区二区在线免费播放 | 首页av在线 | 91视频免费观看 | 久久综合久久综合这里只有精品 | 在线视频18在线视频4k | 在线观看av网站 | 欧美三级高清 | 福利视频第一页 | 97在线观看免费观看高清 | 久久久久成人精品免费播放动漫 | 九色91在线| 日韩欧美在线高清 | 男女免费av | 色婷婷综合视频在线观看 | 在线视频福利 | 中文字幕视频网 | 久久超 | 永久黄网站色视频免费观看w | av中文电影 | 亚洲综合激情小说 | 97色涩 | 最新av网址大全 | 亚洲免费高清视频 | 中文字幕麻豆 | 日本在线观看一区 | 久久亚洲日本 | 毛片99 | 国产视频在线播放 | 日本电影黄色 | 亚洲三级黄色 | 91九色丨porny丨丰满6 | 中文字幕一区二区三区四区久久 | 日韩中文在线电影 | 中文字幕在线观看资源 | 精品国产1区 | 2024国产精品视频 | 不卡的av在线 | 综合av在线| 亚洲国产丝袜在线观看 | 91在线观看黄 | 久久国产精品一区二区三区 | 亚洲一区久久久 | adn—256中文在线观看 | 麻豆91网站| 九七人人干 | 五月开心婷婷 | 免费电影一区二区三区 | 在线免费观看麻豆视频 | 久久另类小说 | 日韩黄在线观看 | 国产成人在线一区 | 四虎伊人 | 久久黄色a级片 | 成人影音av| 久久精品中文字幕免费mv | 91精品天码美女少妇 | 免费在线观看午夜视频 | 国产最新91 | 三上悠亚一区二区在线观看 | 欧美性天天| 久久理伦片 | 六月婷婷久香在线视频 | 久精品视频免费观看2 | 亚洲经典视频在线观看 | 欧美一级日韩三级 | 18做爰免费视频网站 | 久久久久久久久久久影院 | 亚洲天天综合网 | 狠狠操导航 | 久久精品综合网 | 久久视了 | 亚洲三级在线 | 国产亚洲综合性久久久影院 | 亚洲精品系列 | 国产一级二级三级在线观看 | 欧美日韩中字 | 中文字幕在线观看完整版电影 | 久久精品综合一区 | 99免费在线视频 | 日韩区视频 | 久草久草久草久草 | 正在播放国产91 | 亚洲视频,欧洲视频 | 人人干人人做 | 伊人成人精品 | 成年人在线免费视频观看 | 欧美在线1| 999成人免费视频 | 成人精品在线 | 中字幕视频在线永久在线观看免费 | 一区免费观看 | 在线精品视频免费播放 | 欧美一级专区免费大片 | 日韩专区中文字幕 | 丁香 久久 综合 | 午夜精品久久久久久久久久久久久久 | 国产一区二区三区黄 | 高清不卡免费视频 | 亚洲第一av在线播放 | 99精品国产视频 | 99精品热 | 久久99久久99精品中文字幕 | 中文字幕电影网 | 国外成人在线视频网站 | 免费a网站 | 国产日韩欧美在线播放 | 日韩中文字幕在线观看 | 中文字幕免费高清在线观看 | 日本性生活一级片 | 96精品高清视频在线观看软件特色 | 成年人在线观看视频免费 | 99一区二区三区 | 国产区免费 | 国产又粗又猛又爽又黄的视频免费 | 99在线精品观看 | 精品国产一区二区三区四区在线观看 | 国产成人综合精品 | 黄色激情网址 | 欧美精品黑人性xxxx | 国产91在线 | 美洲 | 91九色porny蝌蚪主页 | 中文字幕一区二区三区四区久久 | 成人精品视频久久久久 | 国产精品毛片一区二区 | 日本精品一区二区三区在线观看 | 色视频在线 | 奇米网8888 | 日韩电影在线一区二区 | 久青草视频在线观看 | 成人免费观看在线视频 | 免费国产一区二区视频 | 在线免费观看黄网站 | 黄色aaaaa| 性色在线视频 | av解说在线观看 | 81精品国产乱码久久久久久 | 96精品高清视频在线观看软件特色 | 国产视频久久 | 亚洲午夜小视频 | 粉嫩高清一区二区三区 | 国产精品欧美久久久久天天影视 | 日韩精品视频在线观看网址 | 日韩欧美在线中文字幕 | 亚洲免费观看在线视频 | www.看片网站| 中文字幕日韩一区二区三区不卡 | 一区在线观看 | 日韩久久精品一区 | 五月天高清欧美mv | 激情综合五月 | 国产精品免费久久久 | 综合在线色 | 在线电影a| 精品国产一二区 | 蜜臀av性久久久久av蜜臀妖精 | 99久久精品网 | 中国一级片视频 | 久久免费试看 | 国内久久精品 | 99视频精品全部免费 在线 | av超碰在线 | 国产精品久久久久久一区二区三区 | 狠狠色丁婷婷日日 | 日日噜噜噜噜夜夜爽亚洲精品 | 日韩簧片在线观看 | 91看片在线观看 | 日韩特黄一级欧美毛片特黄 | 欧美特一级 | 亚洲成人av在线电影 | 美女免费视频一区 | 黄色一级大片免费看 | 中文字幕在线观看视频一区 | 日日骑| 99热这里精品 | 久久人人爽视频 | 四虎影视成人精品 | 亚洲黄色成人网 | 亚洲电影黄色 | 国产精品久久久久久久久久白浆 | 亚洲精品在线观 | 日韩精品久久中文字幕 | 91精品啪在线观看国产线免费 | 国产在线国偷精品产拍 | 国产精品毛片一区二区 | 中文字幕一区二区三区四区视频 | 亚洲另类久久 | 九九有精品 | 91 在线视频播放 | 在线精品视频在线观看高清 | 精品福利在线观看 | 天天干天天操天天干 | 怡红院av久久久久久久 | 日本午夜在线亚洲.国产 | 91丨九色丨国产女 | 最新av在线网站 | 深爱激情婷婷网 | 色先锋av资源中文字幕 | 亚洲丝袜一区二区 | 久久久久日本精品一区二区三区 | 懂色av懂色av粉嫩av分享吧 | 国产日产在线观看 | 亚洲精品在线视频观看 | 午夜在线日韩 | av在线色 | 国产美女永久免费 | 久久亚洲热 | www.伊人色.com | 久久精品久久久久久久 | 色综合久久久久综合 | 中文字幕中文 | 亚洲人在线 | 久久免费视频7 | 337p西西人体大胆瓣开下部 | 毛片美女网站 | 色国产在线 | 国产a精品 | 久久久影院官网 | 色噜噜在线观看 | 精品一区二区免费在线观看 | 久草视频在线资源站 | 国产精品不卡一区 | 日韩精品久久久久久久电影竹菊 | 天天色天天艹 | 日韩三级视频在线观看 | 国产在线v| 8x成人免费视频 | 少妇性色午夜淫片aaaze | 三级av黄色 | 日韩视频中文字幕在线观看 | 午夜精品久久久久久久99婷婷 | av网址最新 | 免费亚洲电影 | 黄色一集片 | 久久污视频 | 国内精品久久久久久中文字幕 | 草久中文字幕 | 97超碰福利久久精品 | 特级aaa毛片 | 成人一区二区在线观看 | 国产小视频在线观看 | 欧美日韩国产精品久久 | 人人舔人人舔 | 狠狠干婷婷 | 婷婷综合成人 | 国产午夜三级一区二区三桃花影视 | 在线视频 区 | 中文字幕中文中文字幕 | 免费毛片aaaaaa | 国产精品美女999 | 欧美成人黄 | 色射爱 | 在线三级播放 | 久久99精品国产麻豆婷婷 | 欧美日韩中文在线视频 | 在线小视频你懂的 | 91精品国产成人观看 | 色噜噜狠狠色综合中国 | 国产美女无遮挡永久免费 | 色综合久久精品 | 91九色网址 | 久久人人艹| 国产精品观看视频 | 国产在线精品区 | 国产精品黄 | 久久久人人人 | 久久高清免费 | 日本精品久久久久 | 成人免费观看网站 | 亚洲 欧美 综合 在线 精品 | 美女中文字幕 | 久久精品久久精品久久 | 在线欧美最极品的av | 激情综合色综合久久 | 波多野结依在线观看 | 欧美成人在线免费 | 欧美精品久久久久久久免费 | 国产日韩视频在线观看 | 欧美一区二区三区特黄 | 欧美在线观看视频一区二区三区 | 国产最顶级的黄色片在线免费观看 | 国产精品久久久久影院日本 | 日韩色中色 | 欧美色操 | 91喷水| 日韩欧美高清在线观看 | 人人干网站 | 久久久久久网址 | 久久久99国产精品免费 | 久久伊人国产精品 | 欧美色插 | 免费男女羞羞的视频网站中文字幕 | 久久久av免费 | 粉嫩av一区二区三区四区 | 天堂av免费 | 亚洲播放一区 | 久久精品人 | 在线免费亚洲 | 免费在线观看国产精品 | 久久综合影院 | 国产小视频在线观看 | 视频 天天草 | 亚洲综合一区二区精品导航 | 在线观看久久 | 精品夜夜嗨av一区二区三区 | 免费看色视频 | 国产91精品久久久久久 | 亚洲精品国偷拍自产在线观看蜜桃 | 成人理论在线观看 | 欧美日韩国产二区三区 | 超碰在线中文字幕 | 亚洲男男gaygay无套同网址 | 国产色影院 | 操久久网 | 一二三区av | 国产成人三级一区二区在线观看一 | 顶级欧美色妇4khd | 韩日精品在线观看 | 99久久精品国产免费看不卡 | 夜夜躁狠狠躁日日躁 | 国产精品 日韩 | 特级毛片在线免费观看 | 国产在线探花 | 91成人网页版 | 91av超碰| 久久久久久综合网天天 | 婷婷在线综合 | 天堂av免费观看 | 国产精品精品久久久久久 | 综合国产在线观看 | 亚洲理论电影网 | 麻豆传媒电影在线观看 | 一级淫片在线观看 | 免费福利在线视频 | 一区二区三区免费在线观看视频 | 在线免费观看的av | 中文字幕在线播放日韩 | 久久久久久久久久久久影院 | 国产精品久久久久久婷婷天堂 | 免费在线观看一区二区三区 | 日韩精品在线一区 | www.av免费观看 | 亚洲精品国产视频 | 亚洲成人免费在线观看 | 99久久精品一区二区成人 | 青青草国产在线 | 国产一线天在线观看 | 99久久精品国产亚洲 | 美女网站视频免费黄 | 一区二区三区在线影院 | 国产精品免费久久久 | 天天天天干 | 精品久久美女 | 免费亚洲黄色 | 一区二区三区久久精品 | 狠狠干干| 欧美性一级观看 | 国产高清精 | 亚洲国产精品久久久久久 | zzijzzij亚洲日本少妇熟睡 | 探花视频免费观看 | 美女免费黄网站 | 国产日韩欧美视频 | 日韩一级黄色av | 国产精品小视频网站 | 亚洲韩国一区二区三区 | 天天爱天天舔 | 日韩高清 一区 | 91在线视频观看 | 久草线 | 91精品国 | 在线影视 一区 二区 三区 | 在线免费av观看 | 国产麻豆精品一区二区 | 日韩xxx视频 | 黄色特一级 | 十八岁以下禁止观看的1000个网站 | 天堂v中文 | 国产精品亚洲成人 | 99精品热视频只有精品10 | 国产精品久久久毛片 | 免费人人干| 国产视频一区在线播放 | 国产精品麻豆一区二区三区 | 久久精品人人做人人综合老师 | 精品久久九九 | 国产很黄很色的视频 | 2019天天干天天色 | 99国产精品久久久久久久久久 | 激情久久久久久久久久久久久久久久 | 亚洲精品456在线播放第一页 | 国产精品欧美久久久久天天影视 | 国产精品国产三级国产 | 国产精品毛片一区视频播不卡 | 麻豆久久久久 | 又黄又爽又刺激视频 | 五月天电影免费在线观看一区 | 成人影视免费 | 99精品成人| 国产日产在线观看 | 免费在线色视频 | 黄色大片网 | 欧美精品久久 | av一区二区在线观看中文字幕 | 中文字幕在线一区二区三区 | av女优中文字幕在线观看 | 丁香五婷 | 最新日韩视频在线观看 | 中文字幕乱码在线播放 | 久草视频在线免费看 | 91免费的视频在线播放 | 一级黄毛片 | 91综合在线| 亚洲午夜电影网 | 婷婷色九月| 国产色啪 | 国产精品99免费看 | 丁香色天天| 96精品高清视频在线观看软件特色 | 亚洲精品国产精品国自产 | 国产在线va| 亚洲综合一区二区精品导航 | 伊人色播 | 99精品在线 | 国产精品久久久久久电影 | 成人毛片一区二区三区 | 色妞色视频一区二区三区四区 | 天天操天天综合网 | 国色天香在线观看 | 亚洲午夜精品一区二区三区电影院 | 国产黄色美女 | 色婷婷av在线 | av动图| 国内少妇自拍视频一区 | a级国产毛片| 久久99国产精品视频 | 黄色免费看片网站 | 青青久草在线 | aaa日本高清在线播放免费观看 | 国产a免费 | 在线观看国产成人av片 | 国产精品美女在线 | 狠狠色狠狠色综合日日小说 | 亚洲精品在线视频 | 婷婷久久一区 | 狠狠色丁香久久婷婷综合_中 | 夜夜骑首页 | 欧美日韩视频精品 | 91系列在线观看 | 日韩免费大片 | 久久久久久久久毛片 | 福利视频一区二区 | 国产黄免费 | 日韩黄色av网站 | 久久久www成人免费精品 | 国产婷婷一区二区 | 亚洲人成人99网站 | 日韩欧美精品在线观看 | 国内精品99 | 日韩在线视 | 精品国产aⅴ一区二区三区 在线直播av | 国产粉嫩在线 | 亚洲永久在线 | 五月激情久久久 | 在线观看免费日韩 | 成人免费观看大片 | 免费看v片网站 | 久久久麻豆精品一区二区 | 黄色软件视频大全免费下载 | 手机看片| 成年人在线免费看视频 | 亚州精品一二三区 | 人人爽夜夜爽 | 日韩精品无码一区二区三区 |