日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

知识复习:nlp算法面试汇总

發(fā)布時(shí)間:2024/7/5 编程问答 49 豆豆
生活随笔 收集整理的這篇文章主要介紹了 知识复习:nlp算法面试汇总 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

文章目錄

  • 2.相似度
  • 3.正則化
    • 3.1 L1
    • 3.2 過(guò)擬合和欠擬合
      • 3.2.1 dropout
    • 3.3 欠擬合
  • 4. 激活函數(shù)
    • 4.1 sigmoid
  • 5.Bert
    • 5.1 Bert原版
      • 5.1.2 bert的訓(xùn)練
    • 5.2改進(jìn)
      • 5.2.1缺點(diǎn)改進(jìn)
      • 5.2.2任務(wù)改進(jìn)
    • 5.3 參數(shù)量
    • 5.3 transformer
      • 5.3.1 多頭注意力機(jī)制
  • 6.搜索
    • 6.1pagerank
  • 6.2 文本匹配
  • 7.神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
    • 7.1Norm
    • 7.2 LSTM
      • 7.2.1結(jié)構(gòu)
      • 7.2.2公式
      • 7.2.3 計(jì)算參數(shù)
      • 7.2.4 why解決了梯度消失/梯度消失
      • 7.2.5初始化方法,免于梯度消失
    • 7.3 歸一化
    • 7.4 optim
    • 1.1 隨機(jī)梯度下降
  • 8.常見(jiàn)函數(shù)
    • 8.1 softmax
      • softmax
    • 8.2損失函數(shù)
      • 8.2.1交叉熵和平方損失
      • 8.2.2交叉熵是怎么來(lái)的
      • 8.2.3分類的損失函數(shù)
      • 8.2.4 交叉熵的梯度
        • 8.2.5 BP
      • 8.2.6 KL散度
  • 9.word2vec
  • 10.訓(xùn)練
    • 10.1如何調(diào)整學(xué)習(xí)率
  • 11.python語(yǔ)言基礎(chǔ)
    • 11.1 迭代器和生成器
    • 11.2 垃圾回收機(jī)制
  • 12 sql
    • 12.1 阿里的留存量問(wèn)題
  • 13. 評(píng)價(jià)指標(biāo)
    • 13.1 F1,P,R,AUC
    • 13.2 驗(yàn)證集recall和p都高,測(cè)試集recall和auc沒(méi)下降,prec下降很厲害
  • 14 . 算法題:
    • 14.1n*m的01矩陣,做q次翻轉(zhuǎn)(0->1,1->0),每次翻轉(zhuǎn)后輸出行內(nèi)最長(zhǎng)的1序列
    • 14.2 .二叉樹(shù),每個(gè)節(jié)點(diǎn)為原點(diǎn)有一個(gè)左子樹(shù)集合,將每個(gè)集合的節(jié)點(diǎn)向前平移n格,輸出層次遍歷
  • 15. 智力題
  • 16 機(jī)器學(xué)習(xí)
    • 16.1 決策樹(shù):
      • 16.1.1 分類樹(shù)
        • 16.1.1.1 ID3:信息增益劃分
        • 16.1.1.2 C4.5:增益率
        • 16.1.1.3 CART
      • 16.1.2 回歸樹(shù)
        • 16.1.2.1 提升樹(shù)
        • GBDT:提升樹(shù)基礎(chǔ)上的改進(jìn)
    • 16.2 線性回歸
    • 16.3 word2vec
      • 16.3.1 negative sampling
    • 16.4 處理過(guò)擬合
  • 17. 任務(wù)
    • 17.1 ner序列標(biāo)注
      • 17.1.1 邊界錯(cuò)誤

2.相似度

https://blog.csdn.net/ctwy291314/article/details/81667288

3.正則化

  • L1:

    • 菱形
  • L2:

    • 圓形
  • 趨于0的概率大小:

  • L0>Lp(p~(0,1))>L1>L2

  • L0太理想了

  • 在實(shí)際應(yīng)用中,由于L0范數(shù)本身不容易有一個(gè)好的數(shù)學(xué)表示形式,給出上面問(wèn)題的形式化表示是一個(gè)很難的問(wèn)題,故被人認(rèn)為是一個(gè)NP難問(wèn)題。所以在實(shí)際情況中,L0的最優(yōu)問(wèn)題會(huì)被放寬到L1或L2下的最優(yōu)化。

  • L1–>參數(shù)稀疏,特征選擇

    • 原因一:有尖,最小值容易出現(xiàn)在坐標(biāo)軸上
    • 原因2: L1是拉普拉斯分布,更尖銳,L2則是高斯分布,比L1平緩,所以L1更容易收斂到0的點(diǎn)*
    • 原因3:L1是L0的凸優(yōu)化?之類的。
    • 效果就是讓w往0靠,使網(wǎng)絡(luò)中的權(quán)重盡可能為0,也就相當(dāng)于減小了網(wǎng)絡(luò)復(fù)雜度,防止過(guò)擬合。
  • L2:平滑

    • 經(jīng)變化后w前面系數(shù)為 1?ηλ/n ,由于η、λ、n都是正的。所以 1?ηλ/n小于1,它的效果是減小w,這也就是權(quán)重衰減(weight decay)的由來(lái)

3.1 L1

  • L1不可導(dǎo)的時(shí)候該怎么辦
    • 當(dāng)損失函數(shù)不可導(dǎo),梯度下降不再有效,可以使用坐標(biāo)軸下降法,
    • 梯度下降是沿著當(dāng)前點(diǎn)的負(fù)梯度方向進(jìn)行參數(shù)更新,
    • 坐標(biāo)軸下降法是沿著坐標(biāo)軸的方向,假設(shè)有m個(gè)特征個(gè)數(shù),坐標(biāo)軸下降法進(jìn)參數(shù)更新的時(shí)候,先固定m-1個(gè)值,然后再求另外一個(gè)的局部最優(yōu)解,從而避免損失函數(shù)不可導(dǎo)問(wèn)題。
    • 使用Proximal Algorithm對(duì)L1進(jìn)行求解,此方法是去優(yōu)化損失函數(shù)上界結(jié)果。

3.2 過(guò)擬合和欠擬合

過(guò)擬合:隨著訓(xùn)練過(guò)程的進(jìn)行,模型復(fù)雜度,在training data上的error漸漸減小。可是在驗(yàn)證集上的error卻反而漸漸增大——由于訓(xùn)練出來(lái)的網(wǎng)絡(luò)過(guò)擬合了訓(xùn)練集,對(duì)訓(xùn)練集以外的數(shù)據(jù)卻不work。
1.正則化(Regularization)(L1和L2)

2.數(shù)據(jù)增強(qiáng)(Data augmentation),也就是增加訓(xùn)練數(shù)據(jù)樣本,清洗噪聲
將原始圖片旋轉(zhuǎn)一個(gè)小角度

加入隨機(jī)噪聲

一些有彈性的畸變(elastic distortions),論文《Best practices for convolutional neural networks applied to visual document analysis》對(duì)MNIST做了各種變種擴(kuò)增。

截取(crop)原始圖片的一部分
3.Dropout
在dropout部分, 我們已經(jīng)解釋過(guò), 之所以dropout可以抑制overfitting, 是因?yàn)樵谟?xùn)練階段, 我們引入了 隨機(jī)性(隨機(jī)cancel一些Neuron),減少網(wǎng)絡(luò)的匹配度, 在測(cè)試階段, 我們?nèi)コ綦S機(jī)性, 并通過(guò)期望的方式marginalize隨機(jī)影響。
在BatchNormalization中, 訓(xùn)練階段, 我們隨機(jī)選取了Batch進(jìn)行Normalization, 并計(jì)算running mean等, 在測(cè)試階段, 應(yīng)用running_mean這些訓(xùn)練參數(shù)來(lái)進(jìn)行整體Normalization, 本質(zhì)上是 在Marginalize訓(xùn)練階段的隨機(jī)性。 因此, BatchNormalization也提供了 Regularization的作用, 實(shí)際應(yīng)用中證明, NB在防止過(guò)擬合方面確實(shí)也有相當(dāng)好的表現(xiàn)。
4…early stopping

3.2.1 dropout

Dropout
在dropout部分, 我們已經(jīng)解釋過(guò), 之所以dropout可以抑制overfitting, 是因?yàn)樵谟?xùn)練階段, 我們引入了 隨機(jī)性(隨機(jī)cancel一些Neuron),減少網(wǎng)絡(luò)的匹配度, 在測(cè)試階段, 我們?nèi)コ綦S機(jī)性, 并通過(guò)期望的方式marginalize隨機(jī)影響。
在BatchNormalization中, 訓(xùn)練階段, 我們隨機(jī)選取了Batch進(jìn)行Normalization, 并計(jì)算running mean等, 在測(cè)試階段, 應(yīng)用running_mean這些訓(xùn)練參數(shù)來(lái)進(jìn)行整體Normalization, 本質(zhì)上是 在Marginalize訓(xùn)練階段的隨機(jī)性。 因此, BatchNormalization也提供了 Regularization的作用, 實(shí)際應(yīng)用中證明, NB在防止過(guò)擬合方面確實(shí)也有相當(dāng)好的表現(xiàn)。

3.3 欠擬合

1)添加其他特征項(xiàng),有時(shí)候我們模型出現(xiàn)欠擬合的時(shí)候是因?yàn)樘卣黜?xiàng)不夠?qū)е碌?#xff0c;可以添加其他特征項(xiàng)來(lái)很好地解決。例如,“組合”、“泛化”、“相關(guān)性”三類特征是特征添加的重要手段,無(wú)論在什么場(chǎng)景,都可以照葫蘆畫瓢,總會(huì)得到意想不到的效果。除上面的特征之外,“上下文特征”、“平臺(tái)特征”等等,都可以作為特征添加的首選項(xiàng)。

2)添加多項(xiàng)式特征,這個(gè)在機(jī)器學(xué)習(xí)算法里面用的很普遍,例如將線性模型通過(guò)添加二次項(xiàng)或者三次項(xiàng)使模型泛化能力更強(qiáng)。例如上面的圖片的例子。

3)減少正則化參數(shù),正則化的目的是用來(lái)防止過(guò)擬合的,但是現(xiàn)在模型出現(xiàn)了欠擬合,則需要減少正則化參數(shù)。

4. 激活函數(shù)

4.1 sigmoid

  • sigmoid函數(shù)特性
  • 二分類為什么用sigmoid:
    • 二分類滿足伯努利假設(shè)
    • sigmoid可由伯努利假設(shè)推出

5.Bert

  • Bert
    • 是個(gè)預(yù)訓(xùn)練語(yǔ)言模型,基本結(jié)構(gòu)取自transformer的編碼層,基本的bert疊加了12個(gè)transformer編碼層,但是與transformer不同的是,
    • 在輸入層:不僅有token embedding,position embedding,還有segment embedding(因?yàn)閎ert允許輸入兩個(gè)句子,以sep間隔,以segment區(qū)分
    • position encoding:transformer使用sin,cos;
      • position encoding:
        • 使 PE 能夠適應(yīng)比訓(xùn)練集里面所有句子更長(zhǎng)的句子,假設(shè)訓(xùn)練集里面最長(zhǎng)的句子是有 20 個(gè)單詞,突然來(lái)了一個(gè)長(zhǎng)度為 21 的句子,則使用公式計(jì)算的方法可以計(jì)算出第 21 位的 Embedding。
        • 可以讓模型容易地計(jì)算出相對(duì)位置,對(duì)于固定長(zhǎng)度的間距 k,PE(pos+k) 可以用 PE(pos) 計(jì)算得到。因?yàn)?Sin(A+B) = Sin(A)Cos(B) + Cos(A)Sin(B), Cos(A+B) = Cos(A)Cos(B) - Sin(A)Sin(B)。
        • 人為提升多樣性:頻率不同,
    • multi-head self-attention,K,Q,V=WX
      • attention比lstm好在哪里:
        • attention會(huì)記住重要的,不會(huì)因?yàn)榫嚯x太遠(yuǎn)而遺忘
        • lstm會(huì)遺忘(有遺忘門)
        • attention可并行
    • add:殘差x+mh-self-attention(x)
    • norm:layernorm:使得方差,均值相同(每層輸入)
      • y=x?E[x]Var[x]+??γ+βy = \frac{x - \mathrm{E}[x]}{ \sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \betay=Var[x]+??x?E[x]??γ+β
        torch,matmul(
        torch.softmax(
        torch.matmul(q, k.permute(0, 1, 3, 2)) / sqrt(dk) ), v).permute(0, 2, 1, 3).reshape(batch, n, self.dim_v)

5.1 Bert原版

  • XLNET
    BERT在第一個(gè)預(yù)訓(xùn)練階段,假設(shè)句子中多個(gè)單詞被Mask掉,這些被Mask掉的單詞之間沒(méi)有任何關(guān)系,是條件獨(dú)立的,然而有時(shí)候這些單詞之間是有關(guān)系的,比如”New York is a city”,假設(shè)我們Mask住”New”和”York”兩個(gè)詞,那么給定”is a city”的條件下”New”和”York”并不獨(dú)立,因?yàn)椤盢ew York”是一個(gè)實(shí)體,看到”New”則后面出現(xiàn)”York”的概率要比看到”O(jiān)ld”后面出現(xiàn)”York”概率要大得多。
    但是需要注意的是,這個(gè)問(wèn)題并不是什么大問(wèn)題,甚至可以說(shuō)對(duì)最后的結(jié)果并沒(méi)有多大的影響,因?yàn)楸旧鞡ERT預(yù)訓(xùn)練的語(yǔ)料就是海量的(動(dòng)輒幾十個(gè)G),所以如果訓(xùn)練數(shù)據(jù)足夠大,其實(shí)不靠當(dāng)前這個(gè)例子,靠其它例子,也能彌補(bǔ)被Mask單詞直接的相互關(guān)系問(wèn)題,因?yàn)榭傆衅渌幽軌驅(qū)W會(huì)這些單詞的相互依賴關(guān)系。
    BERT的在預(yù)訓(xùn)練時(shí)會(huì)出現(xiàn)特殊的[MASK],但是它在下游的fine-tune中不會(huì)出現(xiàn),這就造成了預(yù)訓(xùn)練和微調(diào)之間的不匹配,微調(diào)不出現(xiàn)[MASK]這個(gè)標(biāo)記,模型好像就沒(méi)有了著力點(diǎn)、不知從哪入手。所以只將80%的替換為[mask],但這也只是緩解、不能解決。
    相較于傳統(tǒng)語(yǔ)言模型,Bert的每批次訓(xùn)練數(shù)據(jù)中只有 15% 的標(biāo)記被預(yù)測(cè),這導(dǎo)致模型需要更多的訓(xùn)練步驟來(lái)收斂
    另外還有一個(gè)缺點(diǎn),是BERT在分詞后做[MASK]會(huì)產(chǎn)生的一個(gè)問(wèn)題,為了解決OOV的問(wèn)題,我們通常會(huì)把一個(gè)詞切分成更細(xì)粒度的WordPiece。BERT在Pretraining的時(shí)候是隨機(jī)Mask這些WordPiece的,這就可能出現(xiàn)只Mask一個(gè)詞的一部分的情況

  • 中文上
    bert僅僅基于attention,沒(méi)有考慮詞性、對(duì)上下文信息也僅僅用了embedding,僅僅用語(yǔ)義信息,會(huì)出現(xiàn)錯(cuò)判。Bert對(duì)各個(gè)詞的權(quán)重是一樣的,不能突出關(guān)鍵詞。bert對(duì)整句話只抽取一個(gè)主旨,像‘我做了頭發(fā),我還能買新衣服’這樣的句子,就判斷不出來(lái)了。
    在訓(xùn)練中,融入詞性、句法信息、停用詞,抽取多個(gè)主旨,以改善這個(gè)現(xiàn)象

5.1.2 bert的訓(xùn)練

  • mask掉一部分然后去預(yù)測(cè)這部分詞。
  • 判斷兩個(gè)句子是否相連

5.2改進(jìn)

5.2.1缺點(diǎn)改進(jìn)

  • 中文
    • 百度ernie
      • bert學(xué)不到實(shí)體或短語(yǔ)信息:mask實(shí)體
    • 清華ernie
      • 引入:詞匯、句法和知識(shí)信息
      • entity embedding作為ERNIE模型的輸入(知識(shí)圖譜中的)
      • mask實(shí)體并從知識(shí)圖譜中找實(shí)體對(duì)齊
  • xlnet:https://blog.csdn.net/u012526436/article/details/93196139
    • mask:finetune和訓(xùn)練時(shí)不一致
    • mask之間的順序不考慮
    • 排列組合所有順序
  • albert:https://blog.csdn.net/chaojianmo/article/details/104061718/
    • 因式分解embedding:EH1H2
    • 跨層參數(shù)共享(fc/multihead)\
    • NSP->SOP:同個(gè)文檔里負(fù)采樣,避免學(xué)習(xí)到主題

5.2.2任務(wù)改進(jìn)

  • MASS:Masked Sequence to Sequence Pre-training for Language Generation
    • encoder-att-decoder:mask encoder的部分詞,decoder出來(lái)這些詞
  • UNILM:UNIfied pre-trained Language Model
    • 3種mask
      • mask后文
      • mask seq2–學(xué)習(xí)生成
      • 僅mask padding

5.3 參數(shù)量

https://zhuanlan.zhihu.com/p/144582114

5.3 transformer


5.3.1 多頭注意力機(jī)制

q=torch.matmul(W_q, x) k=torch.matmul(W_k,x) v=torch.matmul(W_v,x) q=q.reshape(batch,n,head,dk).permute(0,2,1,3) k=k.reshape(batch,n,head,dk).permute(0,2,1,3) v=v.reshape(batch,n,head,dk).permute(0,2,1,3)# batch,head,n,dk torch.matmul( torch.softmax(torch.matmul(q, k.permute(0, 1, 3, 2)) / sqrt(dk) ), v).permute(0, 2, 1, 3).reshape(batch, n, self.dim_v)

6.搜索

6.1pagerank

https://blog.csdn.net/csdn_lzw/article/details/79733962
核心思想:認(rèn)為萬(wàn)維網(wǎng)中一個(gè)頁(yè)面的重要性取決于指向它的其他頁(yè)面的數(shù)量和質(zhì)量。

  • 如果一個(gè)網(wǎng)頁(yè)被很多其他網(wǎng)頁(yè)鏈接到的話說(shuō)明這個(gè)網(wǎng)頁(yè)比較重要,也就是PageRank值會(huì)相對(duì)較高
  • 如果一個(gè)PageRank值很高的網(wǎng)頁(yè)鏈接到一個(gè)其他的網(wǎng)頁(yè),那么被鏈接到的網(wǎng)頁(yè)的PageRank值會(huì)相應(yīng)地因此而提高
    • 問(wèn)題
      • 終止點(diǎn)問(wèn)題:有些網(wǎng)站沒(méi)有出邊,迭代后,所有的pagerank->0
      • 陷阱:有的節(jié)點(diǎn)存在指向自己的路徑,多次迭代后,他自己為1,其他為0
    • 解決
      • 遇見(jiàn)以上情況,關(guān)閉當(dāng)前,隨機(jī)調(diào)到其他網(wǎng)址上

    6.2 文本匹配

    https://blog.csdn.net/ling620/article/details/95468908

    • 傳統(tǒng)文本匹配
      • 詞匯相似度,詞匯層面
      • 詞義局限,結(jié)構(gòu)局限,知識(shí)局限
    • 主題模型–詞匯分布
      • LSA:SVD
      • PLSA:概率
      • LDA:
        • 詞:詞的分布代表主題,不同主題的詞的分布不同
        • 文章的含義:同一主題在不同文章中,出現(xiàn)的概率不同
        • 確定好主題與詞匯的分布、主題與文章的分布:
          • 隨機(jī)生成文章的各個(gè)主題比例
          • 再根據(jù)主題生成詞
          • –這是LDA的文章生成過(guò)程。忽略了詞的順序,所以不用來(lái)生成
          • 做主題分析
      • 主題模型可做用戶畫像
    • 深層語(yǔ)義
      • 表現(xiàn)型:word embedding,之類的,得到向量
      • 交互型:判定兩個(gè)句子的相似度
    • 應(yīng)用
      • 短-短:得到兩個(gè)文本的額向量;求相似度(余弦,歐式)
      • 短-長(zhǎng):獲得長(zhǎng)的主題模型;求該主題模型生成短文本的概率為其相似度
      • 長(zhǎng)-長(zhǎng):分別求兩者的主題模型;計(jì)算兩個(gè)多項(xiàng)式分布之間的距離作為其相似度(海林哥距離)

    7.神經(jīng)網(wǎng)絡(luò)基礎(chǔ)

    7.1Norm

    原因:
    1.網(wǎng)絡(luò)的各層輸入數(shù)據(jù)的分布則會(huì)不斷變化。
    2.會(huì)逐漸使得激活函數(shù)趨于飽和,導(dǎo)致梯度消失

    https://zhuanlan.zhihu.com/p/74516930
    https://www.cnblogs.com/shuimuqingyang/p/14007260.html
    (bs,seq_len,embedding_size)
    batchnorm:bs
    layernorm:embedding_size(神經(jīng)元)

    • BatchNorm

      • why:原始數(shù)據(jù)分布不一致;經(jīng)過(guò)每層計(jì)算后分布也不一致
      • why不每層直接變?yōu)榫?,方差1的分布?學(xué)不到數(shù)據(jù)特征–所以之后再加上可訓(xùn)練參數(shù)變?yōu)榱硪粋€(gè)y(x->均值0方差1的x1->y)
      • 訓(xùn)練階段
        • 滑動(dòng)平均值、方差:x’ = (1-momentum)x + momentumx’’
      • 測(cè)試階段
    • batchNorm是在batch上,對(duì)NHW做歸一化,對(duì)小batchsize效果不好;

    • layerNorm在通道方向上,對(duì)CHW歸一化,主要對(duì)RNN作用明顯;
    • instanceNorm在圖像像素上,對(duì)HW做歸一化,用在風(fēng)格化遷移; GroupNorm將channel分組,然后再做歸一化;
    • SwitchableNorm是將BN、LN、IN結(jié)合,賦予權(quán)重,讓網(wǎng)絡(luò)自己去學(xué)習(xí)歸一化層應(yīng)該使用什么方法

    7.2 LSTM

    7.2.1結(jié)構(gòu)

    • 結(jié)構(gòu)

    7.2.2公式

    • 公式

    7.2.3 計(jì)算參數(shù)

    • 計(jì)算參數(shù)

    7.2.4 why解決了梯度消失/梯度消失

    • 沒(méi)有解決 、
    • 多條鏈路
    • 梯度消失得原因:Sigmoid函數(shù)有一個(gè)缺點(diǎn):當(dāng)x較大或較小時(shí),導(dǎo)數(shù)接近0或者1;并且Sigmoid函數(shù)導(dǎo)數(shù)的最大值是0.25
      • 鏈?zhǔn)椒▌t求導(dǎo)時(shí),多個(gè)導(dǎo)數(shù)同時(shí)大于或小于1
    • 解決
      • 好的參數(shù)初始化方式:HE
      • 非飽和的激活函數(shù)relu,導(dǎo)數(shù)為1
      • 殘差/多路:一條路掛了,其他仍可走
      • BATCH NORMAL:梯度消失、內(nèi)部協(xié)方差位移,分布變化
      • 梯度裁剪
      • 更快的優(yōu)化器
      • 正則化

    7.2.5初始化方法,免于梯度消失

    https://blog.csdn.net/xxy0118/article/details/84333635
    https://zhuanlan.zhihu.com/p/40175178
    Xavier:輸入和輸出可以保持方差相同的正態(tài)分布,適用于tanh
    He:正向傳播時(shí),狀態(tài)值的方差保持不變;反向傳播時(shí),關(guān)于激活值的梯度的方差保持不變。
    為什么weights初始化要非對(duì)稱?
    如果對(duì)稱初始化,假設(shè)weights全是1,則對(duì)于每個(gè)神經(jīng)元的輸出結(jié)果相同;經(jīng)歷過(guò)BP反向傳播后,weights的各個(gè)位置得到的是相同的更新。
    因此無(wú)論網(wǎng)絡(luò)訓(xùn)練多少輪,對(duì)于每一層中的各個(gè)神經(jīng)元,weights都是相同的,無(wú)法學(xué)習(xí)(提取)到不同的特征。

    為什么weights初始化不能全為0?
    原因同上。

    為什么初始化值不能太大?
    對(duì)于sigmoid、tanh激活函數(shù),初始化值太大,使得流入激活函數(shù)的值過(guò)大,造成飽和現(xiàn)象,當(dāng)反相傳播時(shí),會(huì)使得梯度極小,導(dǎo)致梯度彌散。(ReLU函數(shù)不受此影響)

    為什么初始化值不能太小?
    初始化太小時(shí),經(jīng)過(guò)多層網(wǎng)絡(luò),輸出值變得極小,在反向傳播時(shí)也會(huì)使得梯度極小,導(dǎo)致梯度彌散。(ReLU函數(shù)也受此影響!)

    7.3 歸一化

    什么不需要?dú)w一化:決策樹(shù)
    歸一化的用處:
    1.使不同量綱的特征處于同一數(shù)值量級(jí),減少方差大的特征的影響,使模型更準(zhǔn)確。
    2.加快學(xué)習(xí)算法的收斂速度
    歸一化:1)把數(shù)據(jù)變成(0,1)或者(1,1)之間的小數(shù)。主要是為了數(shù)據(jù)處理方便提出來(lái)的,把數(shù)據(jù)映射到0~1范圍之內(nèi)處理,更加便捷快速。2)把有量綱表達(dá)式變成無(wú)量綱表達(dá)式,便于不同單位或量級(jí)的指標(biāo)能夠進(jìn)行比較和加權(quán)。歸一化是一種簡(jiǎn)化計(jì)算的方式,即將有量綱的表達(dá)式,經(jīng)過(guò)變換,化為無(wú)量綱的表達(dá)式,成為純量。
    ??標(biāo)準(zhǔn)化:在機(jī)器學(xué)習(xí)中,我們可能要處理不同種類的資料,例如,音訊和圖片上的像素值,這些資料可能是高維度的,資料標(biāo)準(zhǔn)化后會(huì)使每個(gè)特征中的數(shù)值平均變?yōu)?(將每個(gè)特征的值都減掉原始資料中該特征的平均)、標(biāo)準(zhǔn)差變?yōu)?,這個(gè)方法被廣泛的使用在許多機(jī)器學(xué)習(xí)算法中(例如:支持向量機(jī)、邏輯回歸和類神經(jīng)網(wǎng)絡(luò))。
    ??中心化:平均值為0,對(duì)標(biāo)準(zhǔn)差無(wú)要求

    作者:brucep3
    鏈接:https://www.jianshu.com/p/95a8f035c86c
    來(lái)源:簡(jiǎn)書
    著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請(qǐng)聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請(qǐng)注明出處。

    7.4 optim

    • SGD,Momentum,Adagard,Adam原理
      • SGD為隨機(jī)梯度下降,每一次迭代計(jì)算數(shù)據(jù)集的mini-batch、batch、單個(gè)的梯度,然后對(duì)參數(shù)進(jìn)行更新。隨機(jī)應(yīng)該是指單個(gè)數(shù)據(jù)的梯度

      • Momentum參考了物理中動(dòng)量的概念,前幾次的梯度也會(huì)參與到當(dāng)前的計(jì)算中,但是前幾輪的梯度疊加在當(dāng)前計(jì)算中會(huì)有一定的衰減。

      • Adagard在訓(xùn)練的過(guò)程中可以自動(dòng)變更學(xué)習(xí)的速率,設(shè)置一個(gè)全局的學(xué)習(xí)率,而實(shí)際的學(xué)習(xí)率與以往的參數(shù)模和的開(kāi)方成反比。

      • Adam利用梯度的一階矩估計(jì)和二階矩估計(jì)動(dòng)態(tài)調(diào)整每個(gè)參數(shù)的學(xué)習(xí)率,在經(jīng)過(guò)偏置的校正后,每一次迭代后的學(xué)習(xí)率都有個(gè)確定的范圍,使得參數(shù)較為平穩(wěn)。

    1.1 隨機(jī)梯度下降

    • x=x-lr*g
    • 隨機(jī):每次算一個(gè)數(shù)據(jù)的梯度
    • mini-batch:每次算一批數(shù)據(jù)的梯度(平均、求和)

    optim



    • 這里調(diào)整的是梯度–但tf是調(diào)整的學(xué)習(xí)率
      • 不會(huì)因?yàn)樘荻群艽蠖鴮?dǎo)致學(xué)習(xí)率(步長(zhǎng))也變得很大,參數(shù)的值相對(duì)比較穩(wěn)定。

    8.常見(jiàn)函數(shù)

    8.1 softmax

    • word2vec里因?yàn)榉帜干婕罢麄€(gè)詞典,因此使用negative sample和層次softmax

    softmax

    8.2損失函數(shù)

    8.2.1交叉熵和平方損失

    • 交叉熵
    • 平方損失:線性回歸
    • 邏輯回歸:極大似然估計(jì)
    • 交叉熵:分類
    • 分類why不用平方損失
      • 平方差的函數(shù)是凸函數(shù),分類器用了sigmoid,不是凸函數(shù),不利于優(yōu)化

      • 直觀上,對(duì)特定的分類問(wèn)題,平方差的損失有上限(所有標(biāo)簽都錯(cuò),損失值是一個(gè)有效值),但交叉熵則可以用整個(gè)非負(fù)域來(lái)反映優(yōu)化程度的程度。

      • 但也可以用。

      • 從本質(zhì)上看,平方差的意義和交叉熵的意義不一樣

        • 概率理解上,平方損失函數(shù)意味著模型的輸出是以預(yù)測(cè)值為均值的高斯分布,損失函數(shù)是在這個(gè)預(yù)測(cè)分布下真實(shí)值的似然度,softmax損失意味著真實(shí)標(biāo)簽的似然度。
        • 分類問(wèn)題下大部分時(shí)候誤差并不服從高斯分布
        • 分類問(wèn)題中的標(biāo)簽,是沒(méi)有連續(xù)的概念的。1-hot作為標(biāo)簽的一種表達(dá)方式,每個(gè)標(biāo)簽之間的距離也是沒(méi)有實(shí)際意義的,所以預(yù)測(cè)值和標(biāo)簽兩個(gè)向量之間的平方差這個(gè)值不能反應(yīng)分類這個(gè)問(wèn)題的優(yōu)化程度。
        • 還有個(gè)原因應(yīng)該是softmax帶來(lái)的vanishing gradient吧。預(yù)測(cè)值離標(biāo)簽越遠(yuǎn),有可能的梯度越小。李龍說(shuō)的non-convex問(wèn)題,應(yīng)該是一種體現(xiàn)形式

    作者:北野寺僧人
    鏈接:https://www.zhihu.com/question/319865092/answer/717476767
    來(lái)源:知乎
    著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請(qǐng)聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請(qǐng)注明出處。

    • 下面這個(gè)解釋有個(gè)問(wèn)題:y*f會(huì)大于1嗎?

    8.2.2交叉熵是怎么來(lái)的

    • 滿足伯努利分布,所以用sigmoid

      • 可從伯努利分布推導(dǎo)出來(lái):https://zhuanlan.zhihu.com/p/360717173
    • 來(lái)自KL散度https://blog.csdn.net/tsyccnh/article/details/79163834

    • KL散度用以描述兩個(gè)分布的差異(真實(shí)分布和預(yù)測(cè)分布)

    • KL=H§+交叉熵

    • DKL(p∣∣q)=∑i=1np(xi)log(p(xi))?∑i=1np(xi)log(q(xi))=?H(p(x))?∑i=1np(xi)log(q(xi))D_{KL}(p||q) \\ = \sum_{i=1}^np(x_i)log(p(x_i))-\sum_{i=1}^np(x_i)log(q(x_i))\\ = -H(p(x))-\sum_{i=1}^np(x_i)log(q(x_i))DKL?(pq)=i=1n?p(xi?)log(p(xi?))?i=1n?p(xi?)log(q(xi?))=?H(p(x))?i=1n?p(xi?)log(q(xi?))

    8.2.3分類的損失函數(shù)

    hinge損失
    交叉熵?fù)p失
    0-1損失
    感知器損失

    8.2.4 交叉熵的梯度

    https://blog.csdn.net/qian99/article/details/78046329

    =ai-yi在這里插入圖片描述

    8.2.5 BP

    https://blog.csdn.net/u010916338/article/details/83310442

    8.2.6 KL散度

    9.word2vec

    • cbow.,skip-gram
    • 層次softmax:哈希曼樹(shù),頻率高的路徑短
    • 負(fù)采樣:
    • 這里還有一種解決問(wèn)題的思路,我們最后的softmax分出來(lái)的類是整個(gè)詞袋的大小,那么是不是可以把詞袋大小減小,因?yàn)橛行┏霈F(xiàn)概率低的詞我們根本可以不考慮。這就是負(fù)采樣的核心思想。

    那么怎么選取頻率較高的詞,構(gòu)成最后softmax要分的類呢
    只計(jì)算正例和負(fù)例的loss
    負(fù)例的選擇

    https://www.cnblogs.com/pinard/p/7249903.html

    作者:吳祺育的筆記
    鏈接:https://www.jianshu.com/p/d8bfaae28fa9
    來(lái)源:簡(jiǎn)書
    著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請(qǐng)聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請(qǐng)注明出處。
    https://www.jianshu.com/p/d8bfaae28fa9

    10.訓(xùn)練

    10.1如何調(diào)整學(xué)習(xí)率

    11.python語(yǔ)言基礎(chǔ)

    11.1 迭代器和生成器

    • 迭代器一次性取出全部
    • 生成器:yield ,一次取一部分,然后暫停,遇見(jiàn)send和next再繼續(xù),一次只取一部分,對(duì)內(nèi)存友好。

    11.2 垃圾回收機(jī)制

    https://blog.csdn.net/xiongchengluo1129/article/details/80462651

    • 計(jì)數(shù)
      • 當(dāng)指向該對(duì)象的內(nèi)存的引用計(jì)數(shù)器為0的時(shí)候,該內(nèi)存將會(huì)被Python虛擬機(jī)銷毀
      • 缺點(diǎn):
      • 無(wú)法解決循環(huán)引用的問(wèn)題。A和B相互引用而再?zèng)]有外部引用A與B中的任何一個(gè),它們的引用計(jì)數(shù)都為1,但顯然應(yīng)該被回收。
    • 標(biāo)記-清除
      • 第一階段是標(biāo)記階段,GC會(huì)把所有的『活動(dòng)對(duì)象』打上標(biāo)記,第二階段是把那些沒(méi)有標(biāo)記的對(duì)象『非活動(dòng)對(duì)象』進(jìn)行回收。
      • 如何判斷:
        • 對(duì)象之間通過(guò)引用(指針)連在一起,構(gòu)成一個(gè)有向圖,對(duì)象構(gòu)成這個(gè)有向圖的節(jié)點(diǎn),而引用關(guān)系構(gòu)成這個(gè)有向圖的邊。從根對(duì)象(root object)出發(fā),沿著有向邊遍歷對(duì)象,可達(dá)的(reachable)對(duì)象標(biāo)記為活動(dòng)對(duì)象,不可達(dá)的對(duì)象就是要被清除的非活動(dòng)對(duì)象(4,5)。根對(duì)象就是全局變量、調(diào)用棧、寄存器。
    • GC
      • 對(duì)于程序,存在一定比例的內(nèi)存塊的生存周期比較短;而剩下的內(nèi)存塊,生存周期會(huì)比較長(zhǎng),甚至?xí)某绦蜷_(kāi)始一直持續(xù)到程序結(jié)束。生存期較短對(duì)象的比例通常在 80%~90% 之間,這種思想簡(jiǎn)單點(diǎn)說(shuō)就是:對(duì)象存在時(shí)間越長(zhǎng),越可能不是垃圾,應(yīng)該越少去收集。這樣在執(zhí)行標(biāo)記-清除算法時(shí)可以有效減小遍歷的對(duì)象數(shù),從而提高垃圾回收的速度。

    12 sql

    12.1 阿里的留存量問(wèn)題

    電話,講了下思路

    • table A: userid | dt
      • userid:用戶id
      • dt:上次登錄時(shí)間,登錄覆蓋,2021-04-13
    • 留存率:
      • 昨天登錄100人
      • 今天這100人里只有70人登錄
      • 留存率:70%
    • 解決方法
      • 備份昨日的表–臨時(shí)表
      • 每日計(jì)算留存率
    select *,concat(round(100*count2/count1,2),'%') 留存率 from(SELECTA.dt,count(distinct A.userid) count1,count(distinct B.userid) count2FROMtableA AS ALEFT JOINtableA_copy1 AS BON A.userid = B.useridandDATEDIFF(A.dt,B.dt)group byA.dt)

    https://zhuanlan.zhihu.com/p/123292172

    13. 評(píng)價(jià)指標(biāo)

    13.1 F1,P,R,AUC

    • https://zhuanlan.zhihu.com/p/69771204

    • acc=(TP+TN)/(P+N)

    • 錯(cuò)誤率=(FP+FN)/(P+N)

    • precision=TP/(TP+FP)=TP/len(predict)

    • recall=TP/(TP+FN)=TP/len(gold)=sensitivity

    • 真正例率:TPR是 TP/P=TP/(len(gold))=TP/(TP+FN)=recall

    • 假正例率:FPR=FP/N=FP/(FP+TN)

    • AUC=ROC的面積,面積大,模型泛化能力強(qiáng)

    • ROC

    • 如何畫roc

      • 調(diào)整閾值畫的

    13.2 驗(yàn)證集recall和p都高,測(cè)試集recall和auc沒(méi)下降,prec下降很厲害

    • 原因可能是閾值太低了
    • 但序列標(biāo)注那種有閾值嗎?argmax的?
      • 可能最高的那個(gè)概率也很低,所以矮子里拔高個(gè)
      • 可以讓設(shè)置如果最大值很小的話,就不要了
    • 閾值低:p高,r低
    • 閾值高:p低,r高
    • 還有可能是沒(méi)學(xué)好負(fù)例。

    14 . 算法題:

    14.1n*m的01矩陣,做q次翻轉(zhuǎn)(0->1,1->0),每次翻轉(zhuǎn)后輸出行內(nèi)最長(zhǎng)的1序列

    ???感覺(jué)題目理解有點(diǎn)問(wèn)題
    輸入:
    n=5 m=4 q=5
    矩陣:
    0 1 1 0
    1 0 0 1
    0 1 1 0
    1 0 0 1
    0 0 0 0
    1 1
    1 4
    3 1
    4 2
    4 3

    14.2 .二叉樹(shù),每個(gè)節(jié)點(diǎn)為原點(diǎn)有一個(gè)左子樹(shù)集合,將每個(gè)集合的節(jié)點(diǎn)向前平移n格,輸出層次遍歷

    輸入:
    2
    7 1
    7 2
    輸出:
    2 4 6 1 5 3 7
    4 1 3 2 5 6 7
    .二叉樹(shù),每個(gè)節(jié)點(diǎn)為原點(diǎn)有一個(gè)左子樹(shù)集合,將每個(gè)集合的節(jié)點(diǎn)向前平移n格,輸出層次遍歷
    他怎么說(shuō)怎么加,或者做數(shù)學(xué)題……,數(shù)學(xué)題應(yīng)該O(n),但邊界怎么處理?邊界還是要算一遍?

    res = list(range(1,7+1)) move=2 flag=[0]*7 for n in range(7):if(flag[n]!=1):now=nr=[now]while(2*now+1<7):now=2*now+1r.append(now)flag[now]=1# res[r[len(r)]]if(len(r)>1):for i in range(len(r)):now = i-moveres[r[now]] = r[i]+1print(r)print(res)flag[n]=1

    15. 智力題

    https://www.nowcoder.com/discuss/tiny/694863?channel=666&source_id=feed_index_nctrack&fromIframe=true

    16 機(jī)器學(xué)習(xí)

    16.1 決策樹(shù):

    https://blog.csdn.net/qq_22194315/article/details/83752321

    16.1.1 分類樹(shù)

    loss:信息增益、增益率、gini_index

    16.1.1.1 ID3:信息增益劃分

    D:數(shù)據(jù)集,pk:數(shù)據(jù)集中第k類占比


    信息增益=劃分前的熵-劃分后
    劃分后熵越低,純度越高,劃分前一定,信息增益越大越好

    缺點(diǎn):它傾向于選取取值數(shù)目多的屬性,因?yàn)檫@樣的屬性計(jì)算出來(lái)的信息增益最大,但往往會(huì)導(dǎo)致泛化能力變?nèi)酢1热鐦颖炯?00個(gè)樣本,然后樣本有一個(gè)屬性“編號(hào)”,100個(gè)樣本的編號(hào)各不相同,如果按編號(hào)屬性劃分則對(duì)新樣本的預(yù)測(cè)很不友好,因?yàn)榫幪?hào)對(duì)label的影響太小了。

    基于此,下面就有C4.5的最優(yōu)屬性選取方式就減輕了信息增益的傾向帶來(lái)的不足。

    16.1.1.2 C4.5:增益率


    V(a)稱為屬性a的固有值,如果屬性a的取值數(shù)目過(guò)多,那么IV(a)會(huì)變得很大,那么增益率就會(huì)變得很小。但是C4.5并不是單純地選取增益率最大的屬性作為最優(yōu)屬性,而是先比較信息增益,也就是說(shuō)我們?cè)谛畔⒃鲆娓哂谄骄降膶傩约现性龠x取增益率最大的屬性。

    16.1.1.3 CART


    16.1.2 回歸樹(shù)

    16.1.2.1 提升樹(shù)

    • 損失函數(shù)(這里是MSE)
    • CART回歸樹(shù):
      • 每次找使得loss最小的屬性j和劃分s,得到回歸樹(shù)
      • 計(jì)算殘差,得到新的數(shù)據(jù)集(x, r)(r = yi- predict_i)
    • 首先遍歷數(shù)據(jù)集的屬性集,對(duì)于每一個(gè)屬性j,我們優(yōu)化上述目標(biāo)。由于屬性j有很多取值,那么從這些取值中先計(jì)算劃分點(diǎn),一般是相鄰兩個(gè)值的中間數(shù)作為劃分點(diǎn),這樣我們的到劃分點(diǎn)s的集合。舉個(gè)例子,假如j有10個(gè)取值,那么先從小到大排序,然后可以計(jì)算10個(gè)取值中的劃分點(diǎn),相鄰兩個(gè)取值的平均值作為一個(gè)劃分點(diǎn),我們就可以得到9個(gè)劃分點(diǎn)。
    • 上述優(yōu)化目標(biāo)也就是,遍歷每一個(gè)可能的j和s,尋找使得上述目標(biāo)最小的j,s來(lái)劃分當(dāng)前結(jié)點(diǎn)。其中c1、c2是各分支的預(yù)測(cè)label(一般取分支結(jié)點(diǎn)的數(shù)據(jù)集的均值),R1、R2是各分支的樣本子集。注意這里是用CART回歸樹(shù)舉例,對(duì)于結(jié)點(diǎn)的劃分只能產(chǎn)生兩個(gè)分支。劃分之后,遞歸地對(duì)子結(jié)點(diǎn)利用上述優(yōu)化目標(biāo)進(jìn)行劃分,直至到達(dá)遞歸邊界(一般是限定葉子個(gè)數(shù),最大深度等)。
    • 得到這樣的回歸樹(shù)之后,我們利用步驟?更新提升樹(shù)的模型fm,并再次計(jì)算殘差,又得到新的數(shù)據(jù)集(x,r),繼續(xù)擬合生成新的回歸樹(shù)直至迭代到M。

    GBDT:提升樹(shù)基礎(chǔ)上的改進(jìn)

    • 初始化
    • 殘差
    • x與負(fù)梯度組合成新的數(shù)據(jù)集,用回歸樹(shù)去擬合,然后更新提升樹(shù)的模型,這就是GBDT。

    16.2 線性回歸

    16.3 word2vec

    skip-gram ,cbow

    16.3.1 negative sampling

    https://zhuanlan.zhihu.com/p/56106590
    1.把常見(jiàn)的詞組作為一個(gè)單詞。

    2.少采樣常見(jiàn)的詞 (比如:A the)
    詞出現(xiàn)的越多越容易不容易被采樣到

    3.修改優(yōu)化目標(biāo)函數(shù),這個(gè)策略稱之為“Negative Sampling(負(fù)采樣)“,使得每個(gè)訓(xùn)練樣本只去更新模型中一小部分的weights。
    出現(xiàn)越多的詞越容易被更新

    https://www.cnblogs.com/pinard/p/7243513.html
    層次softmax
    沿著霍夫曼樹(shù)走

    16.4 處理過(guò)擬合

    https://www.jianshu.com/p/97aafe479fa1

    • 數(shù)據(jù)增強(qiáng)
    • Early stopping
    • 增加噪聲
    • 簡(jiǎn)化網(wǎng)絡(luò)結(jié)構(gòu)
    • Dropout
    • 貝葉斯方法:正則化:L1,L2
    • BN:
      batch normalization
      這句話什么意思呢?意思就是同樣一個(gè)樣本的輸出不再僅僅取決于樣本本身,也取決于跟這個(gè)樣本屬于同一個(gè)mini-batch的其它樣本。同一個(gè)樣本跟不同的樣本組成一個(gè)mini-batch,它們的輸出是不同的(僅限于訓(xùn)練階段,在inference階段是沒(méi)有這種情況的)。我把這個(gè)理解成一種數(shù)據(jù)增強(qiáng):同樣一個(gè)樣本在超平面上被拉扯,每次拉扯的方向的大小均有不同。不同于數(shù)據(jù)增強(qiáng)的是,這種拉扯是貫穿數(shù)據(jù)流過(guò)神經(jīng)網(wǎng)絡(luò)的整個(gè)過(guò)程的,意味著神經(jīng)網(wǎng)絡(luò)每一層的輸入都被數(shù)據(jù)增強(qiáng)處理了。

    相比于Dropout、L1、L2正則化來(lái)說(shuō),BN算法防止過(guò)擬合效果沒(méi)那末明顯。

    17. 任務(wù)

    17.1 ner序列標(biāo)注

    17.1.1 邊界錯(cuò)誤

    增大邊界錯(cuò)誤的loss,便捷預(yù)測(cè)錯(cuò)給更大的懲罰

    總結(jié)

    以上是生活随笔為你收集整理的知识复习:nlp算法面试汇总的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

    如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    激情视频久久 | 青青河边草观看完整版高清 | 色婷婷国产精品一区在线观看 | 丰满少妇在线观看网站 | 少妇bbbb | 日韩欧美高清不卡 | av福利网址导航 | 狠狠干干 | 欧美一级电影在线观看 | 激情久久网 | 久久影视中文字幕 | 免费观看一级视频 | 免费观看版 | 国产精品精品国产婷婷这里av | 在线观看色网站 | 日本二区三区在线 | 91视频91蝌蚪 | 综合精品久久 | 亚洲视频免费在线观看 | 久草国产在线 | 日韩精品久久久久久久电影99爱 | 日本在线观看视频一区 | 亚洲欧洲成人 | 91日韩精品 | 精品久久久久久电影 | 国产在线播放一区二区三区 | 欧美性春潮 | 日本激情视频中文字幕 | 超碰在线成人 | 国产精品久久久久久久久久东京 | 亚洲精品小区久久久久久 | 久久精品影视 | 91av国产视频 | 不卡国产视频 | 91精品成人 | 综合激情网 | 国产视频午夜 | 成人91免费视频 | 最新日本中文字幕 | 伊人资源视频在线 | 操操操操网| 国产亚洲综合性久久久影院 | 特级西西444www大胆高清无视频 | 日免费视频 | 亚洲精品高清在线 | 亚洲国产免费看 | 国产精品成人一区二区 | 九色精品免费永久在线 | 久久久久激情 | 欧美精品日韩 | 日韩在线观看 | 免费看黄色91 | 亚洲在线资源 | 日日骑| 日韩成人免费观看 | av免费观看在线 | 日韩高清不卡一区二区三区 | 久草在线免费电影 | 国产亚洲日本 | 精品三级av | v片在线播放 | 午夜精品一区二区三区在线播放 | 国产成人精品一区二区三区福利 | 在线观看一区二区精品 | 国产精品免费在线播放 | 国产精品成人自产拍在线观看 | 91免费视频网站在线观看 | 在线日韩精品视频 | 久草免费在线观看视频 | 精品久久久久久国产91 | 久久99精品久久久久蜜臀 | 成年人电影毛片 | 国产精品久久一区二区无卡 | 免费人成网 | 日韩欧美电影在线 | 日韩欧在线 | 黄色大片免费播放 | 在线 国产 日韩 | 手机看片福利 | 欧美高清视频不卡网 | 日日夜夜狠狠操 | 91豆麻精品91久久久久久 | 丁香六月婷婷综合 | 天天插天天色 | 日韩精品久久久久久久电影竹菊 | www.亚洲精品视频 | 国产精品毛片一区二区在线看 | 国产 视频 高清 免费 | 97超碰免费在线 | 欧美亚洲久久 | 国产精品国产三级国产aⅴ9色 | 成人久久久久久久久 | 高清不卡一区二区在线 | 欧美福利视频一区 | 三级黄色免费片 | 中文字幕在线影院 | 激情狠狠干 | 日韩a欧美 | 国产一区二区精品久久91 | 国产精品一区在线观看你懂的 | 久久久久久久久久久精 | 精品综合久久久 | 黄色一级大片在线免费看国产一 | h网站免费在线观看 | 丁香在线视频 | 麻豆av一区二区三区在线观看 | 久久免费视频在线观看 | 五月婷婷视频在线 | 亚洲1级片 | 国产理论片在线观看 | 国产免费黄视频在线观看 | 成人免费一级 | 日韩午夜三级 | 国产一区二区不卡在线 | 亚洲精品中文字幕在线 | 黄色在线看网站 | 午夜精品视频免费在线观看 | www九九热 | 成人黄色大片 | 在线免费观看视频a | 狠狠色狠狠色综合日日92 | 操老逼免费视频 | 992tv在线 | 日韩精品视频第一页 | 久久视频这里有久久精品视频11 | 国产精品v欧美精品 | 免费的国产精品 | 日韩免费中文字幕 | 五月激情丁香图片 | 久久久久久激情 | 国产二区精品 | 成人小视频免费在线观看 | 久久综合九色综合网站 | 精品久久久成人 | 久久久免费精品视频 | 手机在线黄色网址 | 国产美女视频网站 | 日日干网址 | 免费在线播放视频 | 97超碰中文| 午夜在线看片 | www国产精品com | 一区二区成人国产精品 | 96国产精品 | 久操中文字幕在线观看 | 日韩欧美99 | 99视频在线免费播放 | 免费毛片一区二区三区久久久 | 操操操av| av资源中文字幕 | 成片视频免费观看 | 激情中文在线 | 国产精品久久久久永久免费观看 | 极品美女被弄高潮视频网站 | 五月婷婷综合久久 | 中文字幕a∨在线乱码免费看 | 免费日韩 精品中文字幕视频在线 | 久久伊人色综合 | 日韩在线观看视频网站 | 丁香婷婷网 | 日日夜夜中文字幕 | 免费色黄 | 91亚洲狠狠婷婷综合久久久 | 亚洲精品字幕在线观看 | 日韩av电影手机在线观看 | 97在线观看免费观看高清 | 亚洲影院一区 | 日本爱爱免费 | 狠狠色狠狠色合久久伊人 | 91激情小视频 | 免费国产一区二区视频 | 国产在线探花 | 日韩一区二区三区在线观看 | 亚洲精选国产 | 黄网站大全| 亚洲免费观看视频 | 免费观看91视频大全 | 天天爽夜夜爽人人爽一区二区 | 在线欧美国产 | 国产手机av| 国产精品久久久久9999 | 国产视频在线看 | 波多野结衣一区二区三区中文字幕 | 久久久久 免费视频 | 福利一区二区 | 日韩精品一区二区三区在线视频 | 国产91在线播放 | 欧美精品中文字幕亚洲专区 | 精品爱爱 | 久久黄色免费 | 久久综合久久综合这里只有精品 | 黄色软件在线看 | 去看片 | 成人中文字幕+乱码+中文字幕 | 久久精品综合视频 | 久久久久久伊人 | 久久国产精品视频免费看 | 色天堂在线视频 | 亚洲精品在线一区二区 | 国产精品久久免费看 | 亚洲国产av精品毛片鲁大师 | 超碰日韩在线 | 免费在线观看成人小视频 | 久久精品人人做人人综合老师 | 精品嫩模福利一区二区蜜臀 | 在线免费观看黄 | 色91在线视频| 91av手机在线 | 成人黄色电影在线播放 | 日韩精品视频免费专区在线播放 | 精品国产91亚洲一区二区三区www | 五月天综合网站 | 激情婷婷| 在线亚洲精品 | 婷婷丁香社区 | 欧美久久成人 | 久久久久99精品国产片 | 伊人网综合在线观看 | 午夜av一区| 天天做天天爱夜夜爽 | 国产美女在线观看 | 天天舔天天射天天操 | 国产成人1区 | 91av视频播放| 亚洲精选视频免费看 | 日日爽天天 | 在线国产能看的 | 国产亚洲情侣一区二区无 | 色噜噜在线观看视频 | 欧美久草视频 | 在线观看视频国产一区 | 久草综合在线观看 | 成片免费观看视频大全 | 国产露脸91国语对白 | 国产r级在线观看 | 视频1区2区 | 亚洲二区精品 | 99精品视频免费在线观看 | 天天综合网在线 | 香蕉手机在线 | 亚洲欧美日韩国产一区二区三区 | 一级片视频在线 | 欧美色插 | 国产黄色在线 | 波多野结衣日韩 | 人人澡超碰碰97碰碰碰软件 | 五月婷婷在线观看视频 | 免费观看久久 | 超碰在线天天 | 日产乱码一二三区别免费 | 久久亚洲视频 | 天天干天天拍天天操 | 97av在线视频 | 最新中文字幕在线资源 | 亚洲欧美综合 | 狠狠狠色丁香婷婷综合久久五月 | 天天操夜夜拍 | 日韩精品一区二区在线视频 | 国产精品 中文字幕 亚洲 欧美 | 一级精品视频在线观看宜春院 | 日本久久久久久科技有限公司 | 成人av在线网址 | 黄色毛片在线 | 在线免费观看av网站 | 91精彩在线视频 | 欧美一级日韩三级 | 在线看日韩 | 天天综合日日夜夜 | 日韩手机在线 | 久久天天操 | 中文字幕在线观看一区二区三区 | 国产99一区| 久草免费手机视频 | 欧美国产日韩一区二区 | 中文字幕日本特黄aa毛片 | 欧美国产日韩一区 | 色婷婷精品大在线视频 | 91麻豆精品国产91 | 开心激情网五月天 | 成人国产电影在线观看 | 国产1区在线 | 久久精品亚洲一区二区三区观看模式 | 日本婷婷色 | 久久综合之合合综合久久 | 中文字幕亚洲综合久久五月天色无吗'' | 婷婷视频导航 | 国产福利精品在线观看 | 久久99精品波多结衣一区 | 亚洲91视频| 欧美91精品| 天天干天天拍天天操天天拍 | 国产黄网在线 | 欧美色一色 | 最近中文字幕完整视频高清1 | 亚洲色图激情文学 | 精品毛片一区二区免费看 | 国产激情久久久 | 日韩欧美aaa | 亚洲天堂网视频 | 日韩va在线观看 | 天天干.com | 亚洲高清视频在线 | 91九色最新 | 欧美性生活免费 | 欧美一级电影片 | 日韩天天干 | 国产日韩av在线 | 日韩三级.com | 亚洲黄色片在线 | 成人黄色电影在线播放 | 亚洲九九爱 | 国产裸体视频bbbbb | 亚洲乱码精品久久久 | 91香蕉视频污在线 | 亚洲精品中文字幕在线观看 | 成人免费一区二区三区在线观看 | 久久69av| 黄色特级一级片 | 精品福利网| 色综合综合 | 国产久草在线 | sesese图片| 麻豆果冻剧传媒在线播放 | 免费在线色视频 | 国产三级在线播放 | 午夜久久影院 | 日日摸日日碰 | 亚洲涩涩网站 | 亚洲国产免费看 | 国产精品久久久99 | 久久久久国产精品一区 | av一区在线播放 | 国产精品18久久久久久vr | 亚洲精品一区二区三区四区高清 | 久草免费色站 | 天天天干天天天操 | 91成人在线看 | 国产黄大片在线观看 | 午夜在线日韩 | 51久久成人国产精品麻豆 | 97色视频在线 | 国产日韩欧美在线看 | 久久久久久国产精品亚洲78 | 亚洲精品视频在线 | 精品国产1区二区 | 美女网站色 | 日韩伦理一区二区三区av在线 | 国产一级淫片免费看 | 亚洲毛片视频 | 中文字幕影视 | 99国产成+人+综合+亚洲 欧美 | 久久免费99 | 狠狠色综合欧美激情 | 人人干97 | 在线观看 亚洲 | 91专区在线观看 | 日韩在线视频网站 | 操一草 | 久久久精品久久 | 一区二区在线电影 | 免费看的黄网站 | 天天玩天天操天天射 | 婷五月激情 | 国产一二三四在线观看视频 | 99久久精品国产亚洲 | 天天插夜夜操 | 亚洲精品在 | 97色免费视频 | 国产一区久久 | 日韩成人欧美 | 在线观看日韩精品视频 | 日韩成人在线一区二区 | 久久精品8 | 中字幕视频在线永久在线观看免费 | 国产精品国产三级国产不产一地 | 精品国产一区在线观看 | 日本在线观看中文字幕无线观看 | 五月天中文字幕mv在线 | 九九免费精品视频在线观看 | 成人精品在线 | 精品国产伦一区二区三区 | 91污污视频在线观看 | 很黄很污的视频网站 | www.久久久com | 日韩免费在线观看网站 | 四虎在线免费观看 | 五月激情丁香 | 欧洲一区二区在线观看 | 天天插天天 | 91av视频播放 | 一区二区在线电影 | 91在线91拍拍在线91 | 成人免费视频在线观看 | 99久久精品免费看国产一区二区三区 | 亚洲va韩国va欧美va精四季 | 成人9ⅰ免费影视网站 | 97爱| 国产精品一区二区视频 | 最近中文字幕完整高清 | 国产亚洲婷婷免费 | 国产高清精品在线观看 | 免费电影一区二区三区 | 国产福利一区在线观看 | 最近最新中文字幕视频 | 久久电影国产免费久久电影 | 在线天堂中文www视软件 | 特级aaa毛片 | 久久电影色 | 少妇搡bbbb搡bbb搡忠贞 | 欧美日韩一区二区三区在线观看视频 | 久久天堂亚洲 | 国产精品毛片一区二区 | 夜夜爽www | 国产精品成人a免费观看 | 九九av | 久操中文字幕在线观看 | 91亚色在线观看 | 黄色av一级片 | 国产999视频在线观看 | 精品亚洲视频在线观看 | 一区二区三区在线播放 | 五月天.com | 国产精品乱码高清在线看 | 激情开心色 | 久久社区视频 | 国产精品免费在线播放 | 国产精彩在线视频 | 激情丁香综合五月 | 国产精品永久久久久久久www | 国产精品久久久久久久久搜平片 | 国产免费人成xvideos视频 | 超碰在线94| 国产精品久久久久久久久久久久午夜片 | 夜夜视频资源 | 亚洲高清色综合 | 超碰免费成人 | 国产999精品久久久久久绿帽 | 在线观看一级片 | 国产精品久久久777 成人手机在线视频 | 国产超碰在线 | 国产精品大全 | 成年人在线看片 | 国产精品美女久久久久久久 | 久久一区二区三区日韩 | 免费91麻豆精品国产自产在线观看 | 欧美视频日韩 | 伊人亚洲综合 | 久草精品在线 | 成人超碰在线 | 亚洲黄色三级 | 亚洲黄在线观看 | 97视频在线观看视频免费视频 | 黄色网在线播放 | 在线日韩av | 中文久草| 国产精品丝袜 | 五月激情姐姐 | 久久精品电影院 | 欧美日视频| 在线观看理论 | 久久草在线视频国产 | 天天搞天天 | 色偷偷88欧美精品久久久 | 欧美极品裸体 | 欧美精品免费一区二区 | 在线高清av | 久久久国产精品一区二区中文 | 区一区二区三区中文字幕 | 主播av在线 | 在线观看成人国产 | 天天插综合网 | 欧美日韩裸体免费视频 | 91亚洲网 | 香蕉在线观看 | 国产精品国产三级国产aⅴ入口 | 国产男女免费完整视频 | 欧美一级免费黄色片 | 国产精品99久久久精品 | 日韩av一区二区在线影视 | www免费网站在线观看 | 色综合天天综合 | 亚洲黄色大片 | 日韩精品一区二区三区第95 | 国产精品成久久久久三级 | 亚洲成色777777在线观看影院 | 日日综合网| 在线 高清 中文字幕 | 999一区二区三区 | 日本成人中文字幕在线观看 | 国产精品69久久久久 | 91插插影库 | 成人黄色小说网 | 国产精品久久久久国产精品日日 | 久艹视频免费观看 | 亚洲精品字幕在线 | 国产剧情av在线播放 | 亚洲九九九在线观看 | 九九国产视频 | 国语黄色片 | 日韩r级电影在线观看 | 极品中文字幕 | 欧美日韩不卡一区二区三区 | 成人高清在线观看 | 在线观看视频国产 | 午夜av电影院 | 久久成人国产精品免费软件 | av片在线看 | 国产精品九九热 | 在线中文字幕av观看 | 最近免费观看的电影完整版 | 欧美极品少妇xbxb性爽爽视频 | 黄色动态图xx | av怡红院| 91麻豆精品一区二区三区 | 免费国产在线精品 | 久久a久久 | 中国一级片在线播放 | 午夜视频在线观看网站 | 亚洲国产中文字幕在线视频综合 | 人人看人人草 | 91福利社在线观看 | 免费亚洲精品视频 | 久草在线视频免费资源观看 | 999国产在线 | 日本精品在线视频 | 国产视频精品久久 | 日本精品在线视频 | 天天天干天天天操 | 日韩午夜av电影 | 国产在线观看中文字幕 | 毛片在线网 | 97电影网站 | 啪嗒啪嗒免费观看完整版 | 深爱激情综合网 | 久久久久99精品国产片 | 婷婷丁香激情网 | 超碰在97 | 欧美亚洲一级片 | a黄色| 99精品国产亚洲 | 国产精品成人久久久 | 有码中文字幕在线观看 | 成人黄色毛片视频 | 特级aaa毛片 | 亚洲视频久久久久 | 97超级碰碰碰碰久久久久 | 久草视频在线播放 | 一二三久久久 | 久久艹综合 | av一区二区三区在线 | 久久久久久久久久久福利 | 国产精品一区二区在线播放 | 伊人久久一区 | 国产精品自在欧美一区 | 99免费在线视频 | 中文字幕乱码在线播放 | 欧美有色 | 91av电影网| 日韩大片在线看 | 久久99久久久久 | 在线观看精品视频 | 午夜精品久久久久久久久久久久 | 国产成人精品一区二区三区在线观看 | 欧美成年人在线观看 | 欧美日韩久久一区 | 深夜免费福利 | 国产伦理久久精品久久久久_ | 国产精品久久久久久久午夜 | 国产亚洲高清视频 | 亚洲天堂色婷婷 | 成人黄色资源 | 久久99爱视频 | 经典三级一区 | 亚洲国产免费 | 日韩xxx视频 | 一二三区高清 | 激情六月婷婷久久 | 久久精品亚洲国产 | 欧美精品一区二区免费 | 97成人精品视频在线播放 | 色噜噜狠狠狠狠色综合 | 久久久www成人免费精品张筱雨 | 久久久久久免费网 | 色免费在线 | 婷婷在线免费 | 成人一区二区在线观看 | 在线视频专区 | 国产精品专区在线 | 久久精品一区二区国产 | 亚洲欧美日韩不卡 | 99re久久精品国产 | 亚洲欧美精品一区二区 | 色婷婷福利 | 亚洲二区精品 | 国产性xxxx | 久久久精品福利视频 | 免费看久久久 | 日韩一二三区不卡 | 国产精品美女免费视频 | 久草视频中文 | 国产.精品.日韩.另类.中文.在线.播放 | 国产又粗又猛又黄又爽的视频 | 国产在线观看网站 | 日韩欧美在线观看一区 | 国产精品刺激对白麻豆99 | 日韩免费高清 | 亚洲欧洲日韩在线观看 | 欧美精品久久久久久久久久白贞 | 国产91av视频在线观看 | 深夜免费福利 | 亚洲aⅴ在线观看 | 在线观看的av网站 | 992tv又爽又黄的免费视频 | 人人射人人插 | 亚洲日韩精品欧美一区二区 | 去看片 | 亚洲精品天天 | 99久久精品国产一区二区成人 | av在线永久免费观看 | 91免费观看网站 | 亚洲闷骚少妇在线观看网站 | 国产99久久久精品 | 综合婷婷丁香 | 欧美一区二区三区在线播放 | 日本中文字幕在线视频 | 人人玩人人添人人澡97 | 国产一区二区手机在线观看 | 精品久久久久亚洲 | 成人黄色大片在线观看 | 91av免费看 | 国产亚洲视频在线观看 | 三级毛片视频 | 在线观看的av网站 | 日本成人免费在线观看 | 国产精品久久久久国产精品日日 | 国产区在线 | 欧美日韩在线精品 | 免费精品视频在线 | 国产精品久久久久久久久毛片 | 成人黄色片免费 | 青青河边草免费直播 | 精品国产欧美一区二区三区不卡 | 久久国产欧美日韩精品 | 中文字幕免 | 久久97精品| 免费看国产a | 国产亚洲欧美精品久久久久久 | aaa毛片视频 | 99 久久久久 | 久久午夜电影 | 日韩在线免费 | 亚洲日本va中文字幕 | 国产精品久久久久四虎 | 久草视频精品 | 91在线色 | 在线观看91精品视频 | av综合 日韩 | 天天干婷婷| 插插插色综合 | 久久国产成人午夜av影院潦草 | 国产精品第一视频 | 中文字幕在线观看的网站 | 免费人成在线观看网站 | 日韩一二三区不卡 | 亚洲电影影音先锋 | 国产性xxxx | 亚洲无吗天堂 | 黄色三几片 | 天天伊人狠狠 | 亚洲成人精品久久久 | 99视频在线免费播放 | 国产精品久久麻豆 | 国产在线视频一区二区 | 欧美日韩视频在线 | 婷婷在线免费视频 | 色吊丝在线永久观看最新版本 | 日韩最新在线 | 日韩av二区 | 深夜福利视频一区二区 | 综合网五月天 | av在线免费不卡 | 国产人免费人成免费视频 | 最新国产精品拍自在线播放 | 狠狠操狠狠干天天操 | 一区二区视频网站 | 天天操天天操天天操 | 麻豆久久一区二区 | 久久免费精品一区二区三区 | 亚洲色图27p | 日韩色综合网 | 午夜 久久 tv | 在线视频亚洲 | h网站免费在线观看 | 99久久精品国产免费看不卡 | 一区二区三区福利 | 欧美日韩高清在线观看 | 国产精品亚洲人在线观看 | 日韩中文在线视频 | 午夜视频在线观看一区二区三区 | 国产欧美综合视频 | 久久开心激情 | 午夜丁香网| 久久九九久久九九 | 夜夜狠狠 | 最近中文字幕完整视频高清1 | 亚洲精品自拍视频在线观看 | 91精品国产91久久久久久三级 | 久久激情电影 | 国产精品久免费的黄网站 | 天天操天天透 | 国产九九九视频 | 国产高清视频网 | 一区二区影院 | 成年一级片| 日韩在线观看第一页 | 久久图 | av成人在线观看 | 国产少妇在线观看 | 伊人伊成久久人综合网站 | 日韩精品一区二区在线 | 二区精品视频 | 精品99视频 | 中文字幕色婷婷在线视频 | 超碰在线cao | 91亚·色| 五月婷婷毛片 | 日韩欧美在线中文字幕 | 亚洲国产精品推荐 | 婷婷5月激情5月 | 激情综合五月 | 久久免费成人精品视频 | 国产精品久久久久久五月尺 | 日韩免费看片 | 亚洲精品美女 | 成人国产精品一区二区 | 成人97视频一区二区 | 久久国产一二区 | 亚洲精品小区久久久久久 | 91大片成人网| 国产不卡一区二区视频 | 99热都是精品 | 国产字幕av | 中文字幕日韩精品有码视频 | 超碰97人| 六月丁香婷婷网 | 麻豆国产电影 | 极品中文字幕 | 成年免费在线视频 | 久久久久久中文字幕 | 成人免费视频网站 | 国产精品视频在线观看 | 四虎在线影视 | 亚洲精品国产精品久久99热 | 麻豆视频在线看 | 久久99影院 | 在线v| 99热精品久久| 天天操一操| 亚洲天天综合 | 欧美做受69 | 91丨九色丨国产在线 | 99亚洲国产精品 | 人人干人人上 | 在线观看 亚洲 | 国产综合久久 | 日韩激情视频在线 | 久久99久国产精品黄毛片入口 | 91精品国产一区二区在线观看 | 丁香花中文在线免费观看 | 国产黄色av网站 | 久久爱综合 | 日韩在线观看三区 | 激情小说网站亚洲综合网 | 国产小视频精品 | 国产精品久久毛片 | 日韩精品欧美专区 | 亚洲欧美视频网站 | 中文字幕999 | 国产在线a | 精品在线二区 | 可以免费观看的av片 | 99热这里精品 | 日韩在线免费 | 免费看一级黄色大全 | 精品在线视频一区 | 少妇搡bbbb搡bbb搡aa | 婷婷丁香在线 | 最近2019好看的中文字幕免费 | 国产一区在线观看视频 | 成人教育av | 嫩嫩影院理论片 | 国产日韩欧美在线影视 | 91免费视频网站在线观看 | 国产又粗又猛又黄又爽 | 日本在线视频网址 | 国产精品一区二区三区在线免费观看 | 久久综合在线 | 黄色大全在线观看 | 久久久久女人精品毛片九一 | 中文字幕免费高清在线观看 | 亚洲五月激情 | 狠狠干天天射 | 久久手机视频 | 成人黄色短片 | 国产日韩精品在线 | 国产一区福利在线 | 中文字幕丰满人伦在线 | 亚洲精品激情 | 91九色蝌蚪视频在线 | 日本mv大片欧洲mv大片 | 亚洲精品综合一二三区在线观看 | 午夜精品久久久久久中宇69 | 国产精品国产三级国产aⅴ入口 | 国产99亚洲| 久草精品在线观看 | 国产激情小视频在线观看 | 在线播放视频一区 | 日韩av片无码一区二区不卡电影 | 日韩视频中文 | 人人添人人澡 | 五月婷婷综合久久 | 伊人资源视频在线 | 国产区欧美 | 亚洲精品久久久蜜桃直播 | 夜夜狠狠 | 国产视频一二三 | 中文字幕乱码在线播放 | 国产亚洲久一区二区 | 丁香婷婷综合激情 | 九九热免费精品视频 | 成人a免费视频 | av免费电影网站 | 欧美亚洲专区 | 国模一二三区 | 在线视频观看亚洲 | 丁香午夜婷婷 | 超碰激情在线 | 久久伊人色综合 | 国产精品久久久久婷婷二区次 | 97精品一区 | 久久精品99 | 国产精品综合av一区二区国产馆 | 日韩伦理一区二区三区av在线 | 欧洲av在线 | 91精彩视频 | 亚洲精品久久久久999中文字幕 | 国内精品久久久久久久久久久久 | 天天在线操| 婷婷亚洲最大 | 国产精品一区二区三区免费看 | 亚洲欧美日韩一区二区三区在线观看 | 一区二区三区久久 | 国产精品一区久久久久 | 国产精品黄网站在线观看 | 国产一级视屏 | 播五月综合 | 嫩小bbbb摸bbb摸bbb | 日本最新一区二区三区 | 婷婷激情网站 | 日韩在线视频国产 | 久久久久久久久久久久久久免费看 | 欧美大片在线观看一区 | 亚洲一区二区三区精品在线观看 | 精品高清美女精品国产区 | 免费看成人片 | 欧美一级裸体视频 | 美国人与动物xxxx | 五月天中文字幕 | 国内成人精品2018免费看 | 午夜av在线电影 | 在线成人免费电影 | 亚欧日韩成人h片 | 国产精品久久久久久久久久尿 | 亚洲人成影院在线 | 在线中文字母电影观看 | 亚洲欧美视频一区二区三区 | 久久久久久国产精品 | 999国内精品永久免费视频 | 国内丰满少妇猛烈精品播放 | 99久久99久国产黄毛片 | 日韩欧美在线视频一区二区三区 | 77国产精品| 国产亚洲视频在线观看 | 国产精品一区在线 | 992tv在线| www.色五月.com | 九九三级毛片 | 麻豆免费精品视频 | 最近中文字幕免费观看 | 免费成人黄色片 | 成人午夜av电影 | 久久久国产精品电影 | 色在线中文字幕 | 久久精品一区二区三区中文字幕 | 亚洲人精品午夜 | 国产精品久久久久久久久久久久久 | 91在线中字 | 国产精品美女久久久 | 人人躁| 国产一区二区日本 | 狂野欧美激情性xxxx | 国产精品九色 | 樱空桃av | 久久国产精品99久久久久久进口 | 深爱激情久久 | 黄色com | 狠狠操天天操 | 久久久久免费精品视频 | 日韩有码网站 | 91桃色免费观看 | 日韩在线激情 | 色偷偷男人的天堂av | 最近中文字幕完整视频高清1 | 91九色porny蝌蚪主页 | 在线色资源 | 午夜少妇一区二区三区 | 草久草久| 99精品国自产在线 | 国产精品美女在线 | 视频在线观看一区 | 亚洲欧美日本A∨在线观看 青青河边草观看完整版高清 | 国产精品二区三区 | 九月婷婷人人澡人人添人人爽 | 久久久午夜精品理论片中文字幕 | 亚洲国产精品99久久久久久久久 | 成 人 黄 色 免费播放 | 在线观看国产91 | 日韩精品无码一区二区三区 | 97电院网手机版 | 天天做综合网 | 中文字幕免费在线看 | 国产黄色特级片 | 干综合网| 一区二区伦理电影 | av一区在线播放 | 欧美少妇xx| 欧美日韩国产在线观看 | 天堂av在线网址 | 亚洲激情 | a在线观看国产 | 观看免费av | 三级av在线免费观看 | 最新中文字幕在线资源 | 五月天丁香视频 | 成人免费看片网址 | 中文字幕有码在线观看 | 欧美最爽乱淫视频播放 | 91麻豆精品国产91久久久使用方法 | 天天天射 | av资源免费看 | 18性欧美xxxⅹ性满足 | 亚洲色图色 | 亚洲一区二区三区miaa149 | 日韩激情第一页 | 97狠狠干| 婷婷综合导航 | 国产精品综合久久久久 | 久草在线视频精品 | 中文字幕国产视频 | 91精品专区| 色婷婷精品 | 黄色成人在线网站 | 91亚洲精品久久久蜜桃 | 最近中文字幕免费 | 日日夜夜免费精品视频 | 黄色av免费电影 | 成人一级影视 | 天天天操天天天干 | 一区二区视频欧美 | 免费看污在线观看 | 制服丝袜在线 | 成人午夜电影在线播放 | 亚洲日本欧美在线 | 亚洲国产成人精品久久 | 国产成人一区二区在线观看 | 久草在线视频在线观看 | 91欧美精品 | 亚洲 综合 国产 精品 | 四虎小视频 | 婷婷婷国产在线视频 | 欧美激情亚洲综合 | 91精品1区2区 | 中文字幕一区二区在线播放 | 夜夜骑日日 | 久久久wwww| 国产三级久久久 | 美女在线免费视频 | 日韩一级理论片 | 国产打女人屁股调教97 | 五月开心综合 | 日韩激情中文字幕 | 久久视频免费观看 | 欧美日韩在线视频免费 | 麻豆影视网站 | 婷婷五综合 | 黄色小说网站在线 | 九草在线观看 | 国精产品999国精产品岳 |