日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Ctr点击率预估理论基础及项目实战

發布時間:2024/1/23 编程问答 47 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Ctr点击率预估理论基础及项目实战 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1.機器學習推薦算法模型回顧
召回(粗排)
利用業務規則結合機器學習推薦算法得到初始推薦結果,得到部分商品召回集
ALS\UserCF\ItemCF\FP-Growth\規則等方式召回
排序(精排)
1期:根據不同推薦位通過不同的模型得到推薦結果
2期:將推薦的所有結果通過Ctr或Cvr預估結果進行排序
GBDT\LR\GBDT+LR\FM()\FFM()\DeepFM\Wide and deep模型\PNN()\FNN()等?
結構圖示


擴展 : 推薦系統排序模型
框架


??? ?從框架的角度看,推薦系統基本可以分為數據層、觸發層、融合過濾層和排序層。數據層包括數據生成和數據存儲,主要是利用各種數據處理工具對原始日志進行清洗,處理成格式化的數據,落地到不同類型的存儲系統中,供下游的算法和模型使用。候選集觸發層主要是從用戶的歷史行為、實時行為、地理位置等角度利用各種觸發策略產生推薦的候選集(召回)。候選集融合和過濾層有兩個功能,一是對出發層產生的不同候選集進行融合,提高推薦策略的覆蓋度和精度;另外還要承擔一定的過濾職責,從產品、運營的角度確定一些人工規則,過濾掉不符合條件的item。排序層主要是利用機器學習的模型對觸發層篩選出來的候選集進行重排序。

??? ?首先將客戶上報過來的數據進行數據清洗,檢查數據的一致性,處理無效值和缺失值等,去除臟數據,處理成格式化數據存儲到不同類型的存儲系統中。對于用戶行為日志和推薦日志由于隨時間積累會越來越大,一般存儲在分布式文件系統(HDFS),即Hive表中,當需要的時候可以下載到本地進行離線分析。對于物品信息一般存儲在MySQL中,但是對于業務數據,越來越多的客戶導致物品信息表(item_info)越來越大,所以同時也會保存在Hive表和HBase中,Hive可以方便離線分析時操作,但實時程序讀取的時候Hive表的實時性較差,所以同時也會寫一份放在HBase中供實時程序讀取。對于各個程序模塊生成的結果,有進程同步關系的程序一般會使用Redis作為緩沖存儲,生產者會把信息寫到redis中供消費者使用。候選集生成是從用戶的歷史行為、實時行為、利用各種策略和算法生成推薦的候選集。同時點擊反饋會根據用戶的實時操作對候選集進行實時的調整,對于部分新用戶和歷史行為不太豐富的用戶,由于候選集太小,需要一些替補策略進行補充。候選集融合規則過濾主要有兩個功能,一是對生成的候選集進行融合,提高推薦策略的覆蓋度和精度;另外還需根據產品、運營的角度確定一些人為的規則,過濾掉不符合條件的item,重排序主要是利用機器學習的模型對融合后的候選集進行重排序。

??? ?同時,對與候選集觸發和重排序兩層而言,為了效果迭代是需要頻繁修改的兩層,因此需要支持ABtest。為了支持高效率的迭代,我們對候選集觸發和重排序兩層進行了解耦,這兩層的結果是正交的,因此可以分別進行對比試驗,不會相互影響。同時在每一層的內部,我們會根據用戶將流量劃分為多份,支持多個策略同時在線對比。

??? ?排序模型分為非線性模型和線性模型,非線性模型能較好的捕捉特征中的非線性關系,但訓練和預測的代價相對線性模型要高一些,這也導致了非線性模型的更新周期相對要長。相較而言,線性模型對特征的處理要求比較高(LR對特征要求較高),需要憑借領域知識和經驗人工對特征做一些先期處理,但因為線性模型簡單,在訓練和預測時效率較高。因此在更新周期上也可以做的更短,還可以結合業務做一些在線學習的嘗試。

2.機器學習重排序-線性模型
邏輯斯特回歸是一種廣義線性模型 , 雖然名字里帶著回歸 , 但它其實是一種分類算法 , 主要運用在二分類或多分類算法 . 邏輯斯特回歸采用極大似然法對模型參數進行估計 .
線性模型以LR為例展開
線性回歸:y=w0+w1x1+w2x2+w3x3
非線性函數:y=1/{1+e**-x} — sigmod函數 — 以概率輸出2分類的結果
線性模型:對輸入特征需要做專門的處理灌入算法中學習
3.機器學習重排序-非線性模型
GBDT為例—梯度提升決策樹
算法原理:
加法模型
前線分布算法
梯度下降法
是非線性模型,在模型中數據的輸入沒有要求,比線性模型少了很多的處理特征的環境
4.機器學習重排序-GBDT+LR簡介
GBDT+LR
GBDT天然具有的優勢是可以發現多種有區分性的特征以及特征組合 .
LR利用GBDT的輸出結果作為輸入 ; LR要輸入的是線性獨立特征
GBDT是非線性模型
LR是線性模型
LR特征工程比較困難,可以借助GBDT方法得到關鍵特征
GBDT通過將樣本落入到每一個葉子結點上,取值為1,其余為0,構建稀疏性向量空間,如01001,將新向量作為LR的輸入進行點擊率預估,以概率的形式輸出點擊率預估結果
5.排序模型發展
LR階段--------特征需要處理
為什么LR需要線性獨立的特征?
LR接受的是線性獨立的特征
y=w0+w1x1+w2x2 假設x1和x2是相關變量,能夠將w1x1+w2x2組合為一個wx
LR的瓶頸 :
1、特征都需要人工進行轉換為線性特征,十分消耗人力,并且質量不能保證
2、特征兩兩作Interaction (交叉沿鎮)的情況下,模型預測復雜度是平方項。在100維稠密特征的情況下,就會有組合出10000維的特征,復雜度高,增加特征困難。
3、三個以上的特征進行Interaction 幾乎是不可行的
GBDT的優點 :
1、對輸入特征的分布沒有要求
2、根據熵增益自動進行特征轉換、特征組合、特征選擇和離散化,得到高維的組合特征,省去了人工轉換的過程,并且支持了多個特征的Interaction
3、預測復雜度與特征個數無關
GBDT階段-------能夠做非線性處理
根據信息gini系數對各個特征進行交叉,得到葉子結點是各個特征的交叉的結果,可以利用GBDT算法以稀疏編碼的方式對已有的樣本進行預測輸出,如000101
GBDT算法的特點正好可以用來發掘有區分度的特征、特征組合,減少特征工程中人力成本。
GBDT+LR
利用GBDT的輸出作為LR輸入,輸入LR的特征是獨立的特征,進而進行學習
stacking模型就是上一個模型的結果作為下一個模型的輸入
6.愛奇藝推薦排序模型


推薦系統的整體結構如圖所示,各個模塊的作用如下:
1、用戶畫像:包含用戶的人群屬性、歷史行為、興趣內容和偏好傾向等多維度的分析,是個性化的基石
2、特征工程:包含了了視頻的類別屬性,內容分析,人群偏好和統計特征等全方位的描繪和度量,是視頻內容和質量分析的基礎
3、召回算法:包含了多個通道的召回模型,比如協同過濾,主題模型,內容召回和SNS等通道,能夠從視頻庫中選出多樣性的偏好內容
4、排序模型:對多個召回通道的內容進行同一個打分排序,選出最優的少量結果。
推薦排序系統架構
在召回階段,**多個通道的召回的內容是不具有可比性的,**并且因為數據量太大也難以進行更加較精確的偏好和質量評估,因此需要在排序階段對召回結果進行統一的準確的打分排序。
(規則排序)用戶對視頻的滿意度是由很多維度因子來決定的,這些因子在用戶滿意度中的重要性也各不相同,甚至各個因子之間還有多層依賴關系,人為制定復雜的規則既難以達到好的效果,又不具有可維護性,這就需要借助機器學習的方法,使用機器學習模型來綜合多方面的因子進行排序(基于模型排序效果)。
機器學習的架構解決了以下兩個問題
訓練預測的一致性
機器學習模型在訓練和預測之間的差異會對模型的準確性產生很大的影響,尤其是模型訓練與在線服務時特征不一致,比如用戶對推薦結果的反饋會實時影響到用戶的偏好特征,在訓練的時候用戶特征的狀態已經發生了變化,模型如果依據這個時候的用戶特征就會產生非常大的誤差。
我們的解決辦法是,將在線服務時的特征保存下來,然后填充到收集的用戶行為樣本中,這樣就保證了訓練和預測特征的一致性。 ===> 即增大了數據的復雜度
持續迭代
互聯網產品持續迭代上線是常態,在架構設計的時候,數據準備,模型訓練和在線服務都必須能夠對持續迭代有良好的支持。
我們的解決方案是,數據準備和模型訓練各階段解耦,并且策略配置化,這種架構使模型測試變得非常簡單,可以快速并行多個迭代測試。
召回
用戶畫像
特征工程
推薦算法
排序
用戶行為收集,特征填充,訓練樣本篩選,模型訓練,在線預測排序
機器學習算法
7.極大似然估計
求解發生概率的最大值

目的:求解發生概率最大值

步驟:1.寫出似然函數,2.對似然函數求log對數,3.對似然函數求導數,4.得到最優解

機器學習三要素:

模型
決策函數:損失函數—平方損失、絕對值損失、指數損失 ----- 最小化損失
條件概率函數:極大似然估計
求解極大似然目標函數

步驟:
1.寫出似然函數
2.對似然函數求log對數
3.對似然函數求導數
4.得到最優解
圖解


極大似然估計的例子圖解


8.梯度下降法及牛頓法
梯度下降法
底層實現:泰勒的一階展開
代碼實現
# 給定初始值 , xOld記錄上一步的x值 , xNew下一步迭代的x值
xOld = 0
xNew = 6

# 步長
epa = 0.01

# 可接受誤差
precision = 0.00001


# 定義原函數
def f(x):
?? ?return x ** 4 - 3 * x ** 3 + 2


# 定義導函數
def f_prime(x):
?? ?return 4 * x ** 3 - 9 * x ** 2


# 主函數
if __name__ == '__main__':
?? ?# 循環直到函數值之差滿足最小誤差
?? ?while abs(f(xNew) - f(xOld)) > precision:
?? ??? ?xOld = xNew
?? ??? ?xNew = xOld - epa * f_prime(xOld)
?? ?# 輸出極小值點
?? ?print("最小值點為 : ", xNew, "最小值為 : ", f(xNew))
# 最小值點為 : ?2.2489469258218673 最小值為 : ?-6.542957528732806
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
總結 :
(1)方向導數是各個方向上的導數
(2)偏導數連續才有梯度存在
(3)梯度的方向是方向導數中取到最大值的方向,梯度的值是方向導數的最大值。
批量梯度下降法(BGD)
更新規則–所有樣本都參與了 theta 的更新和求解,這稱之為批量梯度方法,批量梯度下降法可以找到 線性回歸的全局最小值(為什么?因為目標函數是凸函數,凸函數有且只有一個全局最小值),但算法本身局限在于可能存在局部最優解,但不是全局最優解。
隨機梯度下降法(SGD)
特點 : 更快 , 在線 , 可以跳過局部最小值 , 有可能找不到全局最優值 , 有時候會在局部最優值點發生震蕩 , 但是一般情況下在一定位置發生震蕩 , 認為模型收斂了 . SGD比BGD更能收斂到全局最優值
牛頓法 :
底層實現:泰勒二階展開
牛頓法代碼 :
# 定義原函數
def f(x):
?? ?return x ** 3.0 - 2.0


# 定義導函數
def df(x):
?? ?return 3.0 * x ** 2.0


# 定義迭代值
def g(x):
?? ?return x - f(x) / df(x)


# 定義初始值
x = 1.0
# 定義誤差
r = 1.0

# 循環100次
for i in range(100):
?? ?# 迭代值賦值
?? ?x1 = g(x);
?? ?# 誤差賦值
?? ?r = abs(x1 - x)
?? ?# 可接受誤差
?? ?if r < 1e-10:
?? ??? ?print("step : % d " % i)
?? ??? ?break
?? ?# 更新下一步起始位置
?? ?x = x1
?? ?# 顯示迭代步驟
?? ?print("step : %d , x = %f" % (i, x))
print("remaind error = %f" % r)
print("x = %f" % x)
print("check f(x) = %f , the result is %r" % (f(x), f(x) == 0))
# step : 0 , x = 1.333333
# step : 1 , x = 1.263889
# step : 2 , x = 1.259933
# step : 3 , x = 1.259921
# step : 4 , x = 1.259921
# step : ?5?
# remaind error = 0.000000
# x = 1.259921
# check f(x) = 0.000000 , the result is True
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
梯度下降法與牛頓法的比較


9.邏輯斯特回歸模型
構建似然函數
對似然函數加log對數----------------負log損失函數-------交叉熵損失
求解導數
利用梯度下降法求解得到參數
BGD
SGD(Mini-Batch SGD)
掌握手推梯度下降法
10.邏輯斯特回歸模型實踐
邏輯回歸可以解決分類問題
參數信息:solver和penlty正則項
#導入數據
from sklearn.datasets import load_iris
iris=load_iris()
#數據的基礎屬性信息
print(iris.data)
print(iris.target)
#建立模型
X=iris.data
y=iris.target
from sklearn.model_selection import train_test_split
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=22)
from sklearn.linear_model import LogisticRegression
lr=LogisticRegression(solver='newton-cg')
lr.fit(X_train,y_train)
#模型檢驗
print("lr model in trainset score:",lr.score(X_train,y_train))
print("lr model in testset score:",lr.score(X_test,y_test))
# lr model in trainset score: 0.9416666666666667
# lr model in testset score: 0.9666666666666667
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
11.線性回歸和邏輯回歸的API
通過sklearn的API實現不同的算法
12.GBDT_LR實戰與總結
GBDT+LR實戰

GBDT形成結果通過OneHot編碼形成沒有線性關系的獨熱編碼

再通過LR輸出0-1之間的概率值

sklearn中https://scikit-learn.org/stable/auto_examples/ensemble/plot_feature_transformation.html

測試代碼

import numpy as np
np.random.seed(10)

import matplotlib.pyplot as plt

from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import (RandomTreesEmbedding, RandomForestClassifier,
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? GradientBoostingClassifier)
from sklearn.preprocessing import OneHotEncoder
from sklearn.model_selection import train_test_split
from sklearn.metrics import roc_curve
from sklearn.pipeline import make_pipeline

n_estimator = 10
X, y = make_classification(n_samples=80000)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.5)
X_train, X_train_lr, y_train, y_train_lr = train_test_split(
? ? X_train, y_train, test_size=0.5)


# Supervised transformation based on gradient boosted trees
grd = GradientBoostingClassifier(n_estimators=n_estimator)
grd_enc = OneHotEncoder()
grd_lm = LogisticRegression(solver='lbfgs', max_iter=1000)

grd.fit(X_train, y_train)
grd_enc.fit(grd.apply(X_train)[:, :, 0])
grd_lm.fit(grd_enc.transform(grd.apply(X_train_lr)[:, :, 0]), y_train_lr)

y_pred_grd_lm = grd_lm.predict_proba(grd_enc.transform(grd.apply(X_test)[:, :, 0]))[:, 1]
fpr_grd_lm, tpr_grd_lm, _ = roc_curve(y_test, y_pred_grd_lm)

# # The gradient boosted model by itself
# y_pred_grd = grd.predict_proba(X_test)[:, 1]
# fpr_grd, tpr_grd, _ = roc_curve(y_test, y_pred_grd)
plt.plot(fpr_grd_lm,tpr_grd_lm)
plt.show()
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
**每個樣本都經過整體的每棵樹的決定,并以每棵樹的一片葉子結束。**通過將這些葉的特征值設置為1并將其他特征值設置為0來對樣本進行編碼。
然后,所得到的transformer學習數據的監督的,稀疏的,高維的分類嵌入。

http://scikit-learn.org/stable/modules/generated/sklearn.metrics.auc.html#sklearn.metrics.auc
http://scikit-learn.org/stable/modules/generated/sklearn.metrics.roc_auc_score.html#sklearn.metrics.roc_auc_score
http://scikit-learn.org/stable/auto_examples/ensemble/plot_feature_transformation.html

算法背景 : acebook發表了一篇介紹將GBDT+LR模型用于其廣告推薦系統的論文

LR模型有以下特點:

計算復雜度低
易于并行化處理???
易于得到離散化目標值0或1,利用sigmoid函數將傳統線性模型的輸出值映射到(0,1)區間
GBDT作為一種常用的樹模型,可天然地對原始特征進行特征劃分、特征組合和特征選擇,并得到高階特征屬性和非線性映射。從而可將GBDT模型抽象為一個特征處理器,通過GBDT分析原始特征獲取到更利于LR分析的新特征。這也正是GBDT+LR模型的核心思想——利用GBDT構造的新特征來訓練LR模型。

算法原理及實現

算法組合——stacking : stacking方法有些類似于農業中的嫁接,通過stacking方法組合的模型亦類似于嫁接植物
Facebook論文中的GBDT+LR模型就采用了GBDT算法作為學習層,以LR算法為輸出層。
算法流程& 代碼簡單實現

數據預處理 : 對變量取值中的中英文字符、缺失值和正負無窮值進行處理。
數據集劃分 : 為了降低過擬合的風險,將訓練集中的數據劃分為兩部分,一部分數據用于訓練GBDT模型,另一部分數據通過訓練好的GBDT模型得到新特征以訓練LR模型。
From sklearn.model import train_test_split
X_gbdt,X_lr,y_gbdt,y_lr= train_test_split(X,y,test_size=0.5)
1
2
GBDT特征轉化 : 首先,通過sklearn中的GradientBoostingClassifier得到GBDT模型,然后使用GBDT模型的fit方法訓練模型,最后使用GBDT模型的apply方法得到新特征。
from sklearn.ensemble import GradientBoostingClassifier
gbdt = GradientBoostingClassifier()
gbdt.fit(X_gbdt,y_gbdt)
leaves = gbdt.apply(X_lr)[:,:,0]
1
2
3
4
特征獨熱化 : 使用sklearn.preprocessing中的OneHotEncoder將GBDT所得特征獨熱化。
from sklearn.preprocessing import OneHotEncoder
featutes_trans =OneHotEncoder.fit_transform(leaves)
1
2
LR進行分類 : 用經過離散化處理的新特征訓練LR模型并得到預測結果。
from sklearn.linear_model import LogisticRegression
lr= LogisticRegression()
lr.fit(features_trans,y_lr)
lr.predict(features_trans)
lr.predict_proba(features_trans)[:,1]
1
2
3
4
5
調參方法簡述 :

??? ?構建了模型框架后,模型中的函數參數調整也是必不可少的。對模型參數的適當調整,往往可以有效提升模型的效果。
??? ?由于GBDT+LR模型無法整體使用GridSearchCV函數,所以調參時
??? ?使用sklearn.cross_validation中的StratifiedKFold方法,將數據集進行k折交叉切分,然后以auc值為模型評估指標,對混合模型進行調參。
??? ?調參時的重點為GradientBoostingClassifier函數,可用如下圖所示的調參順序進行調參。
??? ?其中,n_estimators和learning_rate應該聯合調參。

模型效果展示

??? ?我們分別使用LR模型和GBDT+LR模型對樣本數據集進行學習,通過模型所得的auc值和ks值,來評估和比較模型的效果。

算法引申
用FFM模型替代LR模型:
直接將GBDT所得特征輸入FFM模型;
用XGBoost模型替代GBDT模型;
將stacking模型學習層中的GBDT交叉檢驗;
GBDT和LR模型使用model fusion,而不是stacking
擴展 : 【實戰】GBDT+LR算法進行特征擴增
簡介

??? ?CTR估計也就是廣告點擊率預估,計算廣告訓練與平滑思想說明了是用LR算法對于預測的有效性。LR(Logistic Regression)是廣義線性模型,與傳統線性模型相比,**LR通過Logit變換將函數值映射到0~1區間,映射后的函數就是CTR的預估值。**LR模型十分適合并行化,因此對于大數據的訓練十分有效。但是對于線性模型而言,學習能力是有限的,因此需要大量的特征工程預先分析出有效的特征或者是特征組合,從而去間接的增強LR的非線性學習能力。
??? ?特征組合,是通過特征的一些線性疊加或者非線性疊加得到一個新的特征,可以有效的提高分類效果。常見的特征組合方式有笛卡爾積方式。為了降低人工組合特征的工作量,FaceBook提出了一個自動特征提取的方式GBDT+LR。

??? ?GBDT是梯度提升決策樹,首先會構造一個決策樹,首先在已有的模型和實際樣本輸出的殘差上再構造一顆決策樹,不斷地進行迭代。每一次迭代都會產生一個增益較大的分類特征,因此GBDT樹有多少個葉子節點,得到的特征空間就有多大,并將該特征作為LR模型的輸入。

核心問題

(1)建樹采用ensemble決策樹?

??? ?一棵樹的區分性是具有一定的限制的,但是多棵樹可以獲取多個具有區分度的特征組合,而且GBDT的每一棵樹都會學習前面的樹的不足。

(2)建樹算法為什么采用GBDT而不是RF?

??? ?對于GBDT而言,前面的樹,特征分裂主要體現在對多數樣本的具有區分度的特征;后面的樹,主要體現的是經過前面n棵樹,殘差依然比較大的少數樣本。優先選用在整體上具有區分度的特征,再選用針對少數樣本有區分度的特征。

代碼實現

import pandas as pd
import numpy as np
import matplotlib
import matplotlib.pyplot as plt
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import GradientBoostingClassifier,RandomForestClassifier
import xgboost as xgb
from xgboost.sklearn import XGBClassifier
from sklearn.preprocessing import OneHotEncoder
from sklearn.metrics import roc_curve,roc_auc_score,confusion_matrix,classification_report
#1.隨機生成數據集
np.random.seed(10)
X,y = make_classification(n_samples=1000,n_features=30)

#2.切分數據
X_train,X_test,y_train,y_test = train_test_split(X,y,random_state=223,test_size=0.5)
X_train,X_train_lr,y_train,y_train_lr = train_test_split(X_train,y_train,random_state=223,test_size=0.2)

#4.網格搜索

#5.訓練模型
#5.1 RandomForest + LogisticRegression
def RF_LR():
? ? # Rf: 訓練模型
? ? rf = RandomForestClassifier(n_estimators=100, max_depth=4)#n_estimators:樹的數目
? ? rf.fit(X_train, y_train)
? ? rf_result = rf.apply(X_train)#apply得到葉子節點的索引

? ? #onehot編碼
? ? ohe = OneHotEncoder()
? ? ohe.fit(rf_result)
? ? # 利用RF模型獲取以X_train_lr為輸入的葉子節點的索引值, 并對其進行one-hot編碼
? ? X_train_leaf_ohe = ohe.transform(rf.apply(X_train_lr))

? ? #LR: 訓練模型
? ? lr = LogisticRegression(C=0.1, penalty="l2",multi_class='auto')
? ? lr.fit(X_train_leaf_ohe, y_train_lr)
? ? #LR: 預測
? ? y_pred = lr.predict_proba(ohe.transform(rf.apply(X_test)))[:, 1]

? ? #模型評估
? ? fpr, tpr, _ = roc_curve(y_test, y_pred)
? ? auc = roc_auc_score(y_test, y_pred)
? ? print("RandomForest + LogisticRegression :\n", auc)
? ? return fpr,tpr

#5.2 XGBoost + LogisticRegression
def XGB_LR():
? ? # XGBoost: 訓練模型
? ? # nthread: 并行度
? ? # n_estimators: Number of boosted trees to fit 要擬合樹的數目
? ? # colsample_bytree:Subsample ratio of columns when constructing each tree
? ? XGB = xgb.XGBClassifier(nthread=4, learning_rate=0.08, n_estimators=100,
? ? ? ? ? ? ? ? ? ? ? ? ? ? colsample_bytree=0.5)
? ? XGB.fit(X_train, y_train)
? ? XGB_result = XGB.apply(X_train)
? ? # onehot編碼
? ? ohe = OneHotEncoder()
? ? ohe.fit(XGB_result)
? ? X_train__ohe = ohe.transform(XGB.apply(X_train_lr))
? ? # X_train__ohe = ohe.transform(rf_result)
? ? # LR: 訓練模型
? ? lr = LogisticRegression(C=0.1, penalty="l2",multi_class='auto')
? ? lr.fit(X_train__ohe, y_train_lr)
? ? # LR: 預測
? ? # y_pred的shape = [n_samples, n_classes]
? ? y_pred = lr.predict_proba(ohe.transform(XGB.apply(X_test)))[:, 1]
? ? # 模型評估
? ? fpr, tpr, _ = roc_curve(y_test, y_pred)
? ? auc = roc_auc_score(y_test, y_pred)
? ? print("XGBoost + LogisticRegression :\n", auc)
? ? return fpr,tpr

#5.3 GradientBoostingClassifier+LR
def GBDT_LR():
? ? # GBDT: 訓練模型
? ? # n_estimators:迭代次數
? ? gbdt = GradientBoostingClassifier(n_estimators=100)
? ? gbdt.fit(X_train, y_train)
? ? gbdt_result = gbdt.apply(X_train) ?# 3維:shape (n_samples, n_estimators, n_classes)
? ? # onehot編碼
? ? ohe = OneHotEncoder()
? ? ohe.fit(gbdt_result[:, :, 0]) ?# gbdt_result[:,:,0]獲取GBDT
? ? # print(ohe.fit(gbdt_result[:,:,0]))
? ? X_train__ohe = ohe.transform(gbdt.apply(X_train_lr)[:, :, 0])
? ? # LR: 訓練模型
? ? lr = LogisticRegression(C=0.1, penalty="l2",multi_class='auto')
? ? lr.fit(X_train__ohe, y_train_lr)
? ? # LR: 預測
? ? # y_pred的shape = [n_samples, n_classes]
? ? y_pred = lr.predict_proba(ohe.transform(gbdt.apply(X_test)[:, :, 0]))[:, 1]
? ? # 模型評估
? ? fpr, tpr, _ = roc_curve(y_test, y_pred)
? ? auc = roc_auc_score(y_test, y_pred)
? ? print("GBDT + LogisticRegression :\n", auc)
? ? return fpr,tpr

#5.4 LR
def LR():
? ? # LR: 訓練模型
? ? lr = LogisticRegression(C=0.1, penalty="l2",multi_class='auto')
? ? lr.fit(X_train, y_train)
? ? # LR: 預測
? ? # y_pred的shape = [n_samples, n_classes]
? ? y_pred = lr.predict_proba(X_test)[:, 1]
? ? # 模型評估
? ? fpr, tpr, _ = roc_curve(y_test, y_pred)
? ? auc = roc_auc_score(y_test, y_pred)
? ? print("LogisticRegression :\n", auc)
? ? return fpr, tpr

#5.4 XGBoost
def XGBoost():
? ? # XGB: 訓練模型
? ? XGB = xgb.XGBClassifier(nthread=4, learning_rate=0.08, n_estimators=100,
? ? ? ? ? ? ? ? ? ? ? ? ? ? colsample_bytree=0.5)
? ? XGB.fit(X_train, y_train)
? ? # XGB: 預測
? ? y_pred = XGB.predict_proba(X_test)[:, 1]
? ? # 模型評估
? ? fpr, tpr, _ = roc_curve(y_test, y_pred)
? ? auc = roc_auc_score(y_test, y_pred)
? ? print("XGBoost :\n", auc)
? ? return fpr, tpr


# 主函數

if __name__ == '__main__':
? ? fpr_rf_lr,tpr_rf_lr = RF_LR()
? ? fpr_xgb_lr,tpr_xgb_lr = XGB_LR()
? ? fpr_gbdt_lr, tpr_gbdt_lr = GBDT_LR()
? ? fpr_lr, tpr_lr = LR()
? ? fpr_xgb, tpr_xgb = XGBoost()

? ? # plt.figure(1)
? ? plt.xlim(0,0.2)
? ? plt.ylim(0.8,1)
? ? plt.plot([0, 1], [0, 1], "k--")
? ? plt.plot(fpr_rf_lr, tpr_rf_lr, label="RF+LR")
? ? plt.plot(fpr_xgb_lr, tpr_xgb_lr, label="XGB+LR")
? ? plt.plot(fpr_gbdt_lr, tpr_gbdt_lr, label="GBDT+LR")
? ? plt.plot(fpr_lr, tpr_lr, label="LR")
? ? plt.plot(fpr_xgb, tpr_xgb, label="XGBoost")

? ? plt.xlabel("False positive rate")
? ? plt.ylabel("True positive rate")
? ? plt.legend(loc="best")

? ? plt.show()


# # gbc = GradientBoostingClassifier(loss='exponential',criterion='friedman_mse',presort='auto')
# gbc = GradientBoostingClassifier(loss='deviance',criterion='friedman_mse',presort='auto')
# gbc.fit(X_train,y_train)
#
#
#6.測試數據
# y_pred = gbc.predict(X_test)
#
#7. 模型檢測
# print("classification report is: \n", classification_report(y_test,y_pred))
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168


參考文獻:
https://mp.weixin.qq.com/s?__biz=MzI1ODM5MTI4Nw%3D%3D&chksm=ea09a6badd7e2fac05f9886746bd717bc7e53503906728337b72cd1b95cd2faa4e186e79b9cd&idx=1&mid=2247486242&scene=21&sn=3723bc28c36e0c779bb20aa3f1c92b23
https://blog.csdn.net/lilyth_lilyth/article/details/48032119
https://blog.csdn.net/asdfghjkl1993/article/details/78606268
https://blog.csdn.net/TwT520Ly/article/details/79769705

13.騰訊-GBDT與LR
GBDT
ID樹—以不同的id進行分類
非ID樹—拿所有樣本構建樹
LR
接受GBDT輸出結合Onehot編碼數據
14.CTR在廣告場景應用
ctr廣告場景的引用
搜索類廣告
展示類廣告
社交類廣告
計費方式
cpm展示既收費----展示到一定次數>100
cpc點擊即收費-----點擊率Ctr*bid — (常見)
cpa轉化即收費-----需要轉換
如果ctr不高怎么辦?
展示量低?— 提高展示量
展示量高,點擊偏低
文案
廣告關鍵詞?-----重新購買關鍵詞
推廣結果排名較低
GBDT+LR模型
15.Avazu-CTR-Prediction-LR代碼
數據源+數據導入
數據的基本分析
特征工程
建立模型
模型校驗
模型預測
模型保存
#1.導入數據并進行簡單的數據探索
import os
data_path = os.path.join(".", "train_small.csv")
import pandas as pd
ctr_data1 = pd.read_csv(data_path)
#2.數據的簡單描述信息
print(ctr_data1.shape)
# print ctr_data.head()
# print ctr_data.describe()
print (ctr_data1.columns)
print ("="*100)
training_Set=ctr_data1.drop(['id','site_id', 'app_id', 'device_id', 'device_ip', 'site_domain',
? ? ? ? ? ? ? ? ? 'site_category', 'app_domain', 'app_category', 'device_model'], axis=1)
ctr_data=training_Set.values #numpy--ndarry
#2.對數據進行處理和分析
from sklearn.model_selection import train_test_split
X=ctr_data[:,1:]
print (X.shape)
y=ctr_data[:,0]
print (y.shape)
X_train, X_test, y_train, y_test=train_test_split(X,y,test_size=0.22,random_state=33)
print (X_train.shape)
print (y_train.shape)
# #3.引入機器學習算法
from sklearn.linear_model import LogisticRegression
# lr=LogisticRegression()
# ? ? ? ? ? 0 ? ? ? 0.83 ? ? ?1.00 ? ? ?0.91 ? ? 18240
# ? ? ? ? ? 1 ? ? ? 0.00 ? ? ?0.00 ? ? ?0.00 ? ? ?3760
#
# avg / total ? ? ? 0.69 ? ? ?0.83 ? ? ?0.75 ? ? 22000
lr=LogisticRegression(C=0.1, penalty= 'l1')
# ? ? ? ? ? ? ?precision ? ?recall ?f1-score ? support
#
# ? ? ? ? ? 0 ? ? ? 0.83 ? ? ?1.00 ? ? ?0.91 ? ? 18240
# ? ? ? ? ? 1 ? ? ? 0.40 ? ? ?0.00 ? ? ?0.00 ? ? ?3760
#
# avg / total ? ? ? 0.76 ? ? ?0.83 ? ? ?0.75 ? ? 22000
lr.fit(X_train,y_train)
# #4.模型預測
y_pred=lr.predict(X_test)
print (y_pred)
# # #5.模型校驗
print( lr.score(X_train,y_train))
print (lr.score(X_test,y_test))
from sklearn.metrics import confusion_matrix
print( confusion_matrix(y_test,y_pred))
from sklearn.metrics import classification_report
print( classification_report(y_test,y_pred))
# #6.保存模型
from sklearn.externals import joblib
joblib.dump(lr,filename="Ctr_Predict.pkl")
# #8.按照要求寫入對應的csv文件
import numpy as np
import pandas as pd
ctr_data2=pd.read_csv("test.csv")
ctr_data3=ctr_data2.drop(['click','site_id', 'app_id', 'device_id', 'device_ip', 'site_domain',
? ? ? ? ? ? ? ? ? 'site_category', 'app_domain', 'app_category', 'device_model'], axis=1)
print( ctr_data3)
ids=ctr_data3.values[0:,0]
y_pred_test=lr.predict(ctr_data3.values[0:,1:])
# # # print ids
submit=np.concatenate((ids.reshape(len(ids),1),y_pred_test.reshape(len(y_pred_test),1)),axis=1)
df=pd.DataFrame(submit)
df.to_csv("submit.csv", header=['id', 'click'], index=False)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
17.Ctr廣告點擊率預估代碼實戰
18.Ctr技術發展應用
百度蜂巢
阿里媽媽
京東
規則-------LR--------GBDT提取關鍵特征------GBDT+LR(分類概率)
FM—FFM—DeepFM—WideAndDeep
FM—能夠提取二階特征----通過隱向量latent vector做內積提取
FFM—在FM基礎上增加了Field(域)概念
FNN—Filed Neural network–只能學習到高階特征
PNN—在神經網絡中增加了product-layer
Wide and Deep===線性回歸或LR+DEEP–需要借助人工特征工程
DeepFM—FM提取一階和二階特征—Deep提取高階特征—Sigmod函數給出預測值
19.總結
機器學習基礎概念
語言基礎—Python語言—Scala—Julia—R語言
(項目1)用戶畫像—挖掘類標簽
(項目2)推薦系統—基于sparkmllib模型和surprise庫模型–tensorflow—召回
(項目3)推薦結果排序----模型排序
(項目4)Ctr廣告點擊率預估\Cvr廣告的轉化率預估
擴展 2:


區別 :

監督學習和非監督學習主要卻別在于 : 監督學習有類別標簽 , 非監督學習沒有類別標簽
分類和回歸的主要區別在于 : 分類的預測值不是連續值 , 而回歸的預測值是連續值
分類和聚類的主要區別在于 : 分類有類別標簽 , 聚類沒有
生成模型和判別模型的主要區別 : 生成模型主要利用聯合概率分布 , 而判別模型主要利用條件概率分布
點擊預估&轉化預估


擴展3 :
CTR預估數據特點:

1.輸入中包含類別型和連續型數據。類別型數據需要one-hot,連續型數據可以先離散化再one-hot,也可以直接保留原值
2.維度非常高
3.數據非常稀疏
4.特征按照Field分組
CTR預估重點在于學習組合特征。
LR,FTRL。線性模型有個致命的缺點:無法提取高階的組合特征(線性y=w0+w1+w2等)。
LR最大的缺點就是無法組合特征,依賴于人工的特征組合,這也直接使得它表達能力受限,基本上只能處理線性可分或近似線性可分的問題。

FM模型

FM通過隱向量latent vector做內積來表示組合特征,從理論上解決了低階和高階組合特征提取的問題。但是實際應用中受限于計算復雜度,一般也就只考慮到2階交叉特征。

后面有進行了改進 , 提出了FFM , 增加了Field的概念

CNN模型的缺點是:偏向于學習相鄰特征的組合特征。 RNN模型的缺點是:比較適用于有序列(時序)關系的數據。

FNN : 先使用預先訓練好的FM,得到隱向量,然后作為DNN的輸入來訓練模型。缺點在于:受限于FM預訓練的效果。

隨后提出了PNN,PNN為了捕獲高階組合特征,在embedding layer和first hidden layer之間增加了一個product layer。根據product layer使用內積、外積、混合分別衍生出IPNN, OPNN, PNN三種類型。

無論是FNN還是PNN , 都避免不了 : 對于低階的組合特征,學習到的比較少。而前面我們說過,低階特征對于CTR也是非常重要的。

為了同時學習低階和高階組合特征,提出了Wide&Deep模型。它混合了一個線性模型(Wide part)和Deep模型(Deep part)。這兩部分模型需要不同的輸入,而Wide part部分的輸入,依舊依賴人工特征工程。

這些模型普遍都存在兩個問題:

1.偏向于提取低階或者高階的組合特征。不能同時提取這兩種類型的特征。
2.需要專業的領域知識來做特征工程。
DeepFM在Wide&Deep的基礎上進行改進,成功解決了這兩個問題,并做了一些改進,其優勢/優點如下:

1.不需要預訓練FM得到隱向量
2.不需要人工特征工程
3.能同時學習低階和高階的組合特征
4.FM模塊和Deep模塊共享Feature Embedding部分,可以更快的訓練,以及更精確的訓練學習
FNN使用預訓練的FM來初始化DNN,然后只有Deep部分,不能學習低階組合特征。

FNN缺點 :

Embedding的參數受FM的影響,不一定準確
預訓練階段增加了計算復雜度,訓練效率低
FNN只能學習到高階的組合特征。模型中沒有對低階特征建模。
PNN:為了捕獲高階特征。PNN在第一個隱藏層和embedding層之間,增加了一個product layer。

PNN缺點:

內積外積計算復雜度高。采用近似計算的方法外積沒有內積穩定。
product layer的輸出需要與第一個隱藏層全連接,導致計算復雜度居高不下
和FNN一樣,只能學習到高階的特征組合。沒有對于1階和2階特征進行建模。
Wide & Deep設計的初衷是想同時學習低階和高階組合特征,但是wide部分需要領域知識進行特征工程。

Wide&Deep缺點 : 需要特征工程提取低階組合特征

DeepFM優點 :

沒有用FM去預訓練隱向量V,并用V去初始化神經網絡。(相比之下FNN就需要預訓練FM來初始化DNN)
FM模塊不是獨立的,是跟整個模型一起訓練學習得到的。(相比之下Wide&Deep中的Wide和Deep部分是沒有共享的)
不需要特征工程。(相比之下Wide&Deep中的Wide部分需要特征工程)
訓練效率高。(相比PNN沒有那么多參數)
上述東西太多太雜 , 記住最核心的 :

沒有預訓練(no pre-training)
共享Feature Embedding,沒有特征工程(no feature engineering)
同時學習低階和高階組合特征(capture both low-high-order interaction features)
超參數建議

超參數?? ?建議?? ?備注
激活函數?? ?1.IPNN使用tanh ; 2,其余使用ReLU?? ?
學習方法?? ?Adam?? ?
Dropout?? ?0.6~0.9?? ?
隱藏層數量?? ?3~5 , 根據實際數據大小調整?? ?
網絡形狀?? ?constant , 一共有四種 : 固定、增長、下降、菱形?? ?PS:constant效果最好 , 就是隱藏層每一層的神經元的數量相同
————————————————
版權聲明:本文為CSDN博主「CoderBoom」的原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/CoderBoom/article/details/88785995

總結

以上是生活随笔為你收集整理的Ctr点击率预估理论基础及项目实战的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

国产成人91 | 久久精品国产免费看久久精品 | 精品视频久久久 | 国产精品福利午夜在线观看 | 国产精品久久久久久久久久久不卡 | www日韩在线观看 | 日韩在线视频看看 | 国产成人精品一区二区三区福利 | 国产精品va最新国产精品视频 | 91av视频播放 | 久久视频这里只有精品 | 欧美日韩一区二区三区在线免费观看 | 免费在线色 | 欧美亚洲国产精品久久高清浪潮 | 国产专区免费 | 人人舔人人舔 | 91试看| 久久人人插 | 亚洲最新av网站 | 一区二区三区四区五区六区 | 男女视频久久久 | 丝袜美腿在线播放 | 麻豆91在线观看 | 超碰在线cao | 91久久国产综合精品女同国语 | 国产一级性生活 | 国产精品久久久久久一区二区三区 | 最近日本韩国中文字幕 | 美女免费视频观看网站 | 欧美精选一区二区三区 | 欧美 激情 国产 91 在线 | 久久99久久99精品免视看婷婷 | h网站免费在线观看 | 五月综合激情 | 在线国产精品一区 | 日日插日日干 | 亚洲最大av | 日本精品一区二区在线观看 | 国产999精品久久久影片官网 | 免费视频91蜜桃 | 在线免费高清一区二区三区 | 99精品视频在线播放观看 | 国产中年夫妇高潮精品视频 | 欧美日韩不卡一区 | 国产日本三级 | 天天操天天射天天爱 | 综合婷婷丁香 | 91精品国产成人观看 | 五月天综合激情 | 手机看片 | 在线观看av网 | 中文字幕久久精品一区 | 亚洲片在线观看 | 国产精品国产三级国产专区53 | 少妇视频在线播放 | 丁香激情网 | 久久久69 | 色www免费视频 | 国内精品久久久久影院男同志 | 美国人与动物xxxx | 二区视频在线 | 久久精品一区二区三区视频 | 国产精品一区二区久久精品 | 国产99中文字幕 | 精品亚洲欧美无人区乱码 | 久久在线观看 | 日日噜噜噜噜夜夜爽亚洲精品 | 色福利网| 九九久久国产精品 | 四虎影视8848aamm | 中午字幕在线观看 | 精品国产91亚洲一区二区三区www | 国产一区免费在线 | 久久天堂影院 | 一区二区不卡 | 午夜婷婷综合 | 欧美激情奇米色 | 久久99精品国产 | 色在线中文字幕 | 国产精品美女久久 | 天天玩天天操天天射 | 精品产品国产在线不卡 | 黄色免费网战 | av手机在线播放 | 午夜丁香视频在线观看 | 一区二区三区电影大全 | 欧美成人精品xxx | 久久涩涩网站 | 亚洲精品啊啊啊 | 天天五月天色 | 91精品久久久久久久久久入口 | 激情五月婷婷综合网 | 中文字幕有码在线播放 | 青青草国产免费 | 欧美吞精 | 久草视频在线播放 | 精品国产乱码一区二区三区在线 | 国产免费又爽又刺激在线观看 | 欧美人人 | 亚洲综合激情网 | 日韩电影中文 | 99色免费视频 | 亚洲精品高清一区二区三区四区 | 激情综合亚洲 | 国产麻豆精品传媒av国产下载 | 久久不见久久见免费影院 | 午夜视频在线观看欧美 | 激情五月婷婷丁香 | 69国产盗摄一区二区三区五区 | 中文在线字幕观看电影 | 国产精品永久久久久久久久久 | 久久视频精品在线观看 | 最新国产视频 | 黄色片网站免费 | 天天操比| 日韩精品免费一区二区在线观看 | 免费在线观看成人 | 五月黄色 | 亚洲区另类春色综合小说 | 久久99视频精品 | 国产精品一区二区三区久久 | 五月婷婷欧美 | 免费日韩一区二区三区 | 麻豆传媒在线视频 | 国产午夜精品一区二区三区在线观看 | 国产理论免费 | 久久精品成人热国产成 | 久久精品国产精品 | 五月天六月婷 | 91精品久久久久久久久久久久久 | 国产成人精品综合 | 中字幕视频在线永久在线观看免费 | 亚洲高清av在线 | 婷婷丁香六月天 | 免费av免费观看 | 国产精品麻豆免费版 | av在线免费观看不卡 | 亚洲综合色av | 在线午夜 | 国产精久久久 | 99久久综合国产精品二区 | 国产精品视频区 | 久久超碰在线 | 久久99热精品 | 免费看v片网站 | 国产免费久久久久 | 欧美一区二区三区激情视频 | 久久伊人91 | 国产剧情久久 | 超碰官网 | 中国黄色一级大片 | 黄色毛片电影 | 婷婷丁香花五月天 | 九九色视频 | 国产精品欧美在线 | 在线免费观看羞羞视频 | 久久久久国产精品一区 | 久久综合9988久久爱 | 日韩网站免费观看 | 69精品视频在线观看 | 色全色在线资源网 | 天天干,天天操 | 国产精品123| 久久精品99精品国产香蕉 | 18国产精品白浆在线观看免费 | 在线激情小视频 | 欧美色噜噜噜 | 亚洲国产一区在线观看 | 午夜性福利 | 久久久久久久av | 欧美日韩精品免费观看 | 日韩av影片在线观看 | 久久激情影院 | 天天插狠狠插 | 91精品啪| 五月亚洲婷婷 | 国产在线a| 欧美日韩不卡在线视频 | 精品一区二区三区久久久 | 欧美久久久久久久 | 91在线资源 | 亚洲最新毛片 | av 在线观看 | 欧美激情第28页 | 超碰av在线播放 | 人人超碰97| 91精品国自产在线 | 91成人免费观看视频 | 亚洲精品成人在线 | 国产精品一区二区吃奶在线观看 | 国产91在线 | 美洲 | 超碰免费观看 | 成人免费视频网站在线观看 | 国产精品入口麻豆 | 日本中文字幕观看 | 精品国产三级a∨在线欧美 免费一级片在线观看 | 久久婷婷一区二区三区 | 97免费在线观看视频 | 香蕉视频啪啪 | 一级黄色片在线免费看 | 黄色www免费 | 成 人 免费 黄 色 视频 | 色婷婷伊人| 黄色a在线| 在线黄色国产电影 | 色综合久久久久久久 | 天天操天天综合网 | 国产精品美女免费看 | 久草网视频在线观看 | 久久综合精品国产一区二区三区 | 免费又黄又爽的视频 | 国产精品原创 | 免费国产在线观看 | 久久久久久久久精 | 在线观看日本高清mv视频 | 免费在线观看视频a | 国产成人精品一区二区在线 | 最新日韩视频在线观看 | 91av电影网| 亚洲成人精品在线 | 久久免费看毛片 | 亚洲五月婷 | 成年人黄色免费看 | 日韩区在线观看 | 狠狠躁18三区二区一区ai明星 | 精品成人a区在线观看 | 日韩视频免费观看高清完整版在线 | 久久久国产网站 | 一区二区三区四区精品 | 91大神在线看 | 97色在线观看 | 一级一片免费视频 | 色欧美综合 | 久久久一本精品99久久精品66 | 亚洲国内精品视频 | 成人一区二区在线 | 一本到视频在线观看 | 丁香综合av | 日韩av一区二区在线播放 | 日韩免费视频 | 欧美日韩中文国产一区发布 | 亚洲区精品视频 | 大型av综合网站 | 国产韩国精品一区二区三区 | 色999精品| 在线三级播放 | 黄色一级在线视频 | 在线观看中文字幕视频 | 中文永久免费观看 | 欧美日韩国产一区二区三区在线观看 | 涩涩网站在线 | 日韩欧美精品在线视频 | 欧美精品首页 | 久久久一本精品99久久精品 | 日韩午夜在线观看 | 国产精品成久久久久 | 久久久免费少妇 | 免费观看视频的网站 | 丁香网五月天 | 国产三级午夜理伦三级 | 日韩精品久久一区二区三区 | 91一区在线观看 | 91精品亚洲影视在线观看 | 在线播放国产精品 | 99热在线国产 | 亚洲春色综合另类校园电影 | 欧美一二三专区 | 一区在线免费观看 | 亚洲精品国产品国语在线 | 日韩中文字幕在线看 | 免费在线91| 在线精品视频免费播放 | 久久综合久色欧美综合狠狠 | 欧美精品久久久久a | 亚洲精品在线观 | 国产精品18毛片一区二区 | 在线蜜桃视频 | 精品免费久久 | 少妇bbb搡bbbb搡bbbb | 久久五月情影视 | 色综合久久久久久久 | 日韩免费一区二区三区 | 日韩欧美精品在线 | 一级片视频免费观看 | 4438全国亚洲精品在线观看视频 | www免费网站在线观看 | 国产在线小视频 | 91精品国自产拍天天拍 | 久久人人爽人人爽人人片 | 玖玖视频国产 | 国模吧一区 | 91中文字幕| 在线精品观看 | 欧美另类v| 免费网站黄 | 国产黄 | 久久久久国产成人免费精品免费 | 国产黄色成人 | 午夜视频在线观看欧美 | 夜色资源网| 国产啊v在线观看 | 黄色看片 | 99久久网站 | 三级在线视频播放 | 亚洲国产精品久久久久久 | 久一久久| 免费看一级特黄a大片 | 国产亚洲精品成人 | 狠狠操操| 永久免费毛片在线观看 | 免费一级特黄录像 | 伊人五月天.com | 精品久久久久久亚洲综合网站 | 欧美老少交 | 成年人视频在线免费观看 | 国产成人精品一区二区三区免费 | 免费精品在线观看 | 国产精品情侣视频 | 在线观看成年人 | 日韩视频一区二区在线观看 | 麻豆免费看片 | 91精品一区二区三区久久久久久 | 91精品国产乱码在线观看 | 日韩簧片在线观看 | 日本在线观看中文字幕 | 在线视频一区观看 | 亚洲精品国产精品国自产观看 | 九九视频这里只有精品 | 国产视频在线观看一区 | 婷婷六月天丁香 | 中日韩在线 | 狠狠色综合网站久久久久久久 | 少妇超碰在线 | 国产麻豆精品免费视频 | 免费成人在线观看 | www.久久久久 | 国产 字幕 制服 中文 在线 | 国产亚洲精品日韩在线tv黄 | 狠狠干天天射 | 亚洲九九爱| 欧美日韩亚洲第一 | 91九色在线播放 | 99精品一区二区三区 | 日韩特黄一级欧美毛片特黄 | 久久久久免费视频 | 97国产小视频 | 日日爽天天爽 | 国产69精品久久99不卡的观看体验 | a级免费观看 | 欧美日韩一区二区三区在线免费观看 | 91成人看片| 色欲综合视频天天天 | 999久久国精品免费观看网站 | 欧美日韩国产综合网 | 成 人 黄 色 视频 免费观看 | 亚洲国产69 | 国产精品一区二区三区四 | 色亚洲激情| 亚洲欧美日韩精品久久久 | 成人av午夜 | 午夜丁香网 | 亚洲免费观看在线视频 | 91麻豆视频 | 麻豆国产精品va在线观看不卡 | av福利第一导航 | 91日韩精品一区 | 亚洲欧美999| 日韩一级成人av | 五月开心激情 | av黄色国产| 亚洲综合五月天 | se婷婷| 色六月婷婷 | 国产成人精品综合久久久 | 777xxx欧美 | 精品在线一区二区三区 | 97色婷婷成人综合在线观看 | 色之综合网 | 久久爱导航 | 玖玖在线播放 | 97超在线 | 亚洲综合色丁香婷婷六月图片 | 伊人视频 | 国产91免费在线 | 国产精品igao视频网网址 | 在线观av | 国产精品入口麻豆www | 久久久久久久久爱 | 黄色成人av | 97天天综合网 | 久久精品综合视频 | www.夜夜 | 天天爽天天做 | 国产特级毛片aaaaaa高清 | 9999毛片| 精品视频123区在线观看 | 国产永久免费观看 | 91亚洲精品久久久久图片蜜桃 | 最近中文字幕国语免费高清6 | 欧美日韩中文字幕在线视频 | 国内揄拍国产精品 | 成人网页在线免费观看 | 成人黄色电影免费观看 | 国产经典三级 | 91精品久 | 色综合欧洲| 久久五月婷婷丁香 | 日韩电影在线视频 | 国产专区视频在线观看 | 国产在线观看中文字幕 | 日日操狠狠干 | 久久不色 | 国产精品美女久久久久久2018 | 中文字幕在线播放第一页 | 国产成本人视频在线观看 | av短片在线 | 中文字幕一区二区三区四区久久 | 国产高清视频免费在线观看 | 日韩国产精品久久久久久亚洲 | av网站地址| 中文字幕电影网 | 成人免费xxxxxx视频 | 五月天久久 | 国产精品国产三级在线专区 | 日韩精品专区在线影院重磅 | 中文乱码视频在线观看 | 成人羞羞免费 | 国产网站在线免费观看 | av福利免费| 色婷婷成人| 亚洲最新在线 | 日日夜夜天天人人 | 亚洲精品一区二区三区在线观看 | 成人a级黄色片 | 国产亚洲免费的视频看 | 一级成人在线 | 精品久久久久亚洲 | 2024国产在线 | 91精品一区国产高清在线gif | 亚洲人毛片 | 久草在线在线视频 | 顶级欧美色妇4khd | 亚洲91精品在线观看 | 人人爽人人澡 | 色先锋资源网 | 欧美 日韩精品 | 日韩在线观看视频一区二区三区 | 国产精品一区二区三区视频免费 | 精品国产一区二区三区四 | 五月综合网 | 日韩欧美在线观看一区 | 日本在线免费看 | 成人a免费 | 日韩精品一区二区三区外面 | 久草在线资源免费 | 超碰在线日本 | 天天色天天爱天天射综合 | 日韩欧美一级二级 | 国产淫a| 亚洲资源视频 | 西西大胆免费视频 | 日韩av电影国产 | 免费一级黄色 | 激情久久久久 | 91av视频在线免费观看 | 欧美人人 | 亚洲第二色 | 又黄又刺激 | 免费在线观看一级片 | 亚洲伦理电影在线 | 在线91观看 | 麻豆视频在线免费观看 | 夜夜躁狠狠躁日日躁视频黑人 | a级国产乱理伦片在线播放 久久久久国产精品一区 | 国产精品成人品 | 久久久久久久网站 | 免费视频国产 | 在线观看中文字幕2021 | 99久久精品国产亚洲 | 国产999久久久 | www久久九 | 日韩在线小视频 | 免费看一级特黄a大片 | 正在播放国产精品 | 国产福利av | 国产精品一区二区久久精品爱涩 | 成人国产精品久久久久久亚洲 | 久久精品国产亚洲 | 亚洲精品一区二区在线观看 | 在线电影 一区 | 亚洲国产精选 | 国产精品18久久久久久首页狼 | 久久成人综合 | 一本大道久久精品懂色aⅴ 五月婷社区 | 免费看片网址 | 免费观看成年人视频 | sesese图片| 99精品久久久久久久 | 最近2019中文免费高清视频观看www99 | 亚洲视频久久久 | 香蕉网在线观看 | 国产精品www | 午夜神马福利 | 2023av| 久久精品精品电影网 | www激情网| 91av成人| 亚洲欧美国产精品18p | 日韩高清精品免费观看 | 日韩高清黄色 | 亚洲激情视频在线观看 | 美女网站在线看 | 国产精品久久久久久久久久久久午 | 日韩欧美亚洲 | 亚洲天天综合 | 视频在线91 | 国产在线精品播放 | 成人黄色小说视频 | 久久久久久亚洲精品 | 亚洲精品999 | 日日夜夜精品免费视频 | 国产在线一区二区三区播放 | 亚洲一区二区精品3399 | 免费福利在线 | 成人免费亚洲 | а天堂中文最新一区二区三区 | 91 | 最近中文字幕在线播放 | www.天天操 | 久久久久免费观看 | 国产精品乱码久久久久 | 国产成人精品在线 | 91香蕉视频污在线 | 成人app在线播放 | 曰韩精品 | 欧美日韩视频在线 | 欧美在线观看小视频 | 99精品区| 伊人资源视频在线 | 久久久久黄色 | 精品免费在线视频 | 亚洲国产精品传媒在线观看 | 丁香婷婷基地 | 欧美日韩在线播放一区 | 亚洲影视资源 | 免费看一级特黄a大片 | 中文字幕人成乱码在线观看 | 久久久久久影视 | 一区二区精品国产 | a在线观看国产 | 日日婷婷夜日日天干 | www.天天操 | 久久精品国产免费观看 | 久久久久久久久亚洲精品 | 精品毛片一区二区免费看 | 国内久久久久 | 久草视频在线新免费 | 欧美日韩性视频在线 | 日韩特级黄色片 | 在线观看色视频 | 在线看片成人 | 99视频国产精品 | 人人爽人人爽人人片av免 | 日韩欧美一区二区三区在线 | 成人教育av | 国产午夜三级一区二区三 | 日韩国产欧美在线播放 | av在线com| 久久综合色播五月 | 91精品一区二区三区蜜臀 | 欧美日本不卡视频 | 欧美专区国产专区 | 涩涩网站在线看 | 天天操网 | 日韩高清www| 免费在线观看一区二区三区 | 久久免费成人网 | 色综合久久88色综合天天人守婷 | 国产亚洲精品日韩在线tv黄 | 五月天丁香综合 | 91 在线视频 | 在线观看资源 | 国产精品成久久久久三级 | 国产精品福利午夜在线观看 | 色综合色综合色综合 | 中文字幕文字幕一区二区 | 婷婷草 | 国产精品久久久久久久久久99 | 欧美精品在线观看一区 | 三级av网| 久久久久久黄色 | 国产福利在线不卡 | 人人精久 | 欧美日韩免费观看一区二区三区 | 玖玖在线资源 | 国产成人三级在线观看 | 草在线视频| 视频一区二区精品 | 婷婷在线视频 | 欧美日韩免费观看一区二区三区 | 在线看免费 | 国内久久久久久 | 国产一级在线播放 | 天天色天天干天天 | 国产成人福利在线 | 久久精精品| 国产精品黄网站在线观看 | 日p视频| 丁香六月中文字幕 | 97超碰国产精品 | 欧美了一区在线观看 | 亚洲综合在线视频 | 亚洲少妇自拍 | 久久久久亚洲精品男人的天堂 | 久久国内精品99久久6app | 91成年人网站| 99热这里只有精品8 久久综合毛片 | 亚洲精品视频第一页 | 国产精品一级在线 | 欧美亚洲另类在线视频 | 国内精品视频免费 | 国产精选在线 | 亚洲精品免费观看视频 | av综合站| 免费观看视频的网站 | 人人爱夜夜操 | 在线综合色 | 久久久96 | 欧美aaa级片 | 久草视频免费在线观看 | 亚洲精品理论片 | 国产日韩中文字幕在线 | 中文字幕在线观看免费 | 亚洲福利精品 | 高清精品在线 | 狠狠做深爱婷婷综合一区 | 欧洲亚洲国产视频 | 成人午夜精品久久久久久久3d | 国产原厂视频在线观看 | 日韩大片在线免费观看 | 欧美午夜理伦三级在线观看 | 激情丁香久久 | va视频在线 | 综合铜03| 国产黄av | 四虎在线免费 | 网站免费黄色 | 黄色成人av | 国产手机免费视频 | 国内精品久久久久久久影视麻豆 | 激情av资源 | 成人福利在线 | 午夜精品久久久久久99热明星 | 黄色www在线观看 | 深夜福利视频一区二区 | 亚洲国产午夜 | 久久99在线 | 日韩免费中文字幕 | 色中色亚洲| 日韩精品一区二区三区外面 | 国产亚洲精品免费 | 天天拍夜夜拍 | 99视频精品在线 | 中文字幕免费播放 | 九九爱免费视频在线观看 | 精品久久电影 | a国产精品 | 中文字幕亚洲国产 | 国产特级毛片aaaaaa高清 | 日韩在线精品视频 | 少妇bbw揉bbb欧美 | 日本在线观看黄色 | 亚洲永久在线 | 国产中文字幕大全 | 婷婷在线免费观看 | 久久婷婷久久 | 亚洲精品高清在线观看 | 久久av在线播放 | 亚洲精品免费看 | 国产高清在线免费 | 国产高清日韩欧美 | 91九色国产视频 | 999久久久久久久久久久 | 欧美成人aa | 国产一区二区在线播放视频 | 摸bbb搡bbb搡bbbb| 天天色天天干天天 | 成av人电影 | 色婷婷欧美 | 97超碰色偷偷 | 欧美婷婷综合 | 精品久久免费看 | 久久黄色精品视频 | 国产一级久久 | 99re6热在线精品视频 | 亚洲国产大片 | 人人爽人人干 | 99精品久久只有精品 | 精品久久久久久电影 | 亚洲电影网站 | 鲁一鲁影院 | 免费av在 | 91中文字幕在线 | www91在线观看 | 国产精品亚洲a | 一本色道久久精品 | 国产精品1区2区在线观看 | 在线观看黄色小视频 | 成人黄色在线电影 | 草久久久久久久 | 在线日本看片免费人成视久网 | 香蕉久久久久久av成人 | 99精品亚洲 | 亚洲情感电影大片 | 国产精品嫩草影院99网站 | 狠狠操夜夜操 | 中文字幕中文字幕在线一区 | 激情婷婷 | 日韩乱码在线 | 日韩有码欧美 | 亚洲狠狠干 | 免费亚洲视频在线观看 | 国产精品资源 | 久久精品视频观看 | 中国一级片在线播放 | 色综合天天做天天爱 | 中文字幕在线看视频国产 | 成人h视频在线播放 | 99色在线观看| 国产精品免费久久久 | 精品一二三区 | 国产精品女教师 | 九九色综合 | 欧美日韩电影在线播放 | 亚洲视频在线观看免费 | 96香蕉视频| 91网址在线看 | 亚洲精品中文字幕在线 | 国产在线一区二区 | 国内久久精品视频 | 伊色综合久久之综合久久 | 免费的黄色av | 亚洲精品一区二区18漫画 | 麻豆一级视频 | 欧美91精品久久久久国产性生爱 | 91av99| 国产小视频在线 | 天天射天天操天天 | 欧美精品在线观看一区 | 九九热精| 久久99国产精品视频 | 四虎永久国产精品 | 99久久精品国产网站 | av中文字幕电影 | 午夜资源站 | 欧美综合干 | 91精选在线 | 在线观看免费黄视频 | 日韩av电影手机在线观看 | 国产综合激情 | 日韩视频欧美视频 | 97av视频在线 | 精品国产精品久久一区免费式 | 国产精品免费观看国产网曝瓜 | 成人高清在线观看 | 不卡精品| 国产91精品久久久久 | 五月天综合在线 | 精品国产_亚洲人成在线 | 在线免费观看麻豆视频 | av片子在线观看 | 99re中文字幕 | 日韩精品免费在线观看 | 在线视频日韩一区 | 国产小视频在线看 | a级片韩国| 国产精品久久久久久久午夜片 | 天天舔天天搞 | 久久综合中文字幕 | 精品视频免费久久久看 | 国产在线一线 | 日本三级不卡视频 | 久久久久久欧美二区电影网 | 中文字幕日本电影 | 成人久久网 | av官网在线| adc在线观看 | 日韩在线短视频 | 日韩精品播放 | 成人黄色短片 | 狠狠色狠狠综合久久 | 日韩色av色资源 | 日本成人中文字幕在线观看 | 高清免费av在线 | 一区 二区 精品 | 亚洲精品免费观看视频 | 久久久久久久99精品免费观看 | 亚洲精品中文字幕视频 | 又黄又爽又刺激的视频 | 丁香综合五月 | 中文字幕在线观看日本 | 成人毛片在线视频 | 三级黄色大片在线观看 | 成年人免费看 | 亚洲人人精品 | 国产精品av在线 | 97福利 | 国产97碰免费视频 | 91在线91 | 三级黄色片在线观看 | 国产高清在线精品 | 久久少妇| 精品国产午夜 | 国产亚洲一区二区在线观看 | 综合天天色 | 久久国产精品99精国产 | 成人毛片100免费观看 | av网站在线观看播放 | 手机av在线不卡 | 国产午夜视频在线观看 | 久久午夜网| 黄色三级免费 | 国语精品久久 | 亚洲综合视频在线 | 一区 在线观看 | 九九免费精品视频在线观看 | 999久久久欧美日韩黑人 | 午夜丁香视频在线观看 | 国产精品久久嫩一区二区免费 | 国产一线二线三线性视频 | 国产精品成人自产拍在线观看 | 在线看成人 | 国产成人在线观看免费 | 99视频精品视频高清免费 | 国产精品99久久久久久人免费 | 天堂av中文字幕 | 精品国产一区二区三区久久 | 国产一级片网站 | 国内精品久久天天躁人人爽 | 四虎最新入口 | 激情欧美日韩一区二区 | 久久久久久久久久久久久国产精品 | 欧美午夜性生活 | 国产精品久久久久永久免费观看 | 国产xvideos免费视频播放 | 婷婷色中文 | 亚洲精品资源 | 国产打女人屁股调教97 | 91九色性视频 | 亚洲视频免费在线观看 | 久久久999免费视频 日韩网站在线 | 欧美成人一区二区 | 91亚洲国产 | 亚洲精品在线网站 | 一区二区三区在线免费播放 | 亚洲午夜久久久久久久久电影网 | 69国产盗摄一区二区三区五区 | 国产精品女人久久久久久 | 久久小视频 | 中文字幕频道 | 日日碰狠狠添天天爽超碰97久久 | 欧美日本啪啪无遮挡网站 | 综合网天天 | 激情av一区二区 | 国产成人免费观看 | 黄色91在线观看 | 国产一区视频免费在线观看 | 中文字幕高清免费日韩视频在线 | 国产精品久久久久久久久久直播 | 成人久久久电影 | 免费看的黄色小视频 | 在线精品一区二区 | 热九九精品 | 久二影院 | 国产高清第一页 | 亚洲精品视频在线观看免费视频 | 亚洲干 | 99久久精品午夜一区二区小说 | 国产清纯在线 | 亚洲视频免费视频 | 久久艹久久 | 91av视频在线播放 | 国产精品一区二区三区99 | 182午夜在线观看 | 婷婷久久国产 | 狠狠干综合 | 欧美性生活免费 | 91精品办公室少妇高潮对白 | 亚洲综合色站 | 久久99久久99精品免观看粉嫩 | 中文不卡视频 | 大胆欧美gogo免费视频一二区 | 97精品久久| 正在播放国产一区 | 欧美婷婷综合 | 国产精品自在线 | 国产精品欧美日韩 | 91日韩在线 | 五月天九九 | 日韩视频1区 | 国产小视频在线观看 | 日韩在线播放欧美字幕 | 999久久久久久久久6666 | 日韩精品第1页 | 精品视频在线观看 | 中文字幕999 | 久久五月网 | 91成人精品一区在线播放69 | 99热这里| 久久亚洲福利 | www久久国产 | 91视频a| 国内精品久久久久久中文字幕 | 成人黄色小说视频 | 手机色在线 | 精品国产黄色片 | 天天色草 | 成人动态视频 | 伊人www22综合色 | 狠狠插狠狠干 | 在线免费视频你懂的 | 久影院 | 人人要人人澡人人爽人人dvd | 黄色在线观看www | 中日韩三级视频 | 国产精品高潮呻吟久久久久 | 久久久久国产精品厨房 | 一本一道久久a久久综合蜜桃 | 国产黄在线看 | 三级在线视频播放 | 99精品一区二区 | 国产 亚洲 欧美 在线 | 中日韩欧美精彩视频 | 午夜私人影院久久久久 | 久草在线中文888 | 天天操人人要 | 精品一区二区在线免费观看 | 国产精品久久久久永久免费 | 国产99久久久国产精品 | 国产伦理久久精品久久久久_ | 人人干人人上 | 91精品中文字幕 | 日韩免费看视频 | 在线色亚洲 | 激情丁香月 | 中文字幕亚洲综合久久五月天色无吗'' | 亚洲理论影院 | 在线免费观看视频一区二区三区 | 夜色成人av| 人人狠狠综合久久亚洲婷 | av软件在线观看 | 久久精品成人热国产成 | 欧美日韩久久不卡 | 精品毛片久久久久久 | 欧美一区二区三区不卡 | 在线中文字幕电影 | 国产欧美精品一区aⅴ影院 99视频国产精品免费观看 | 91福利在线导航 | 777奇米四色 | 日韩欧美一区二区在线观看 | 久久99精品久久久久久三级 | 亚欧洲精品视频在线观看 | 91精品国自产在线 | 亚洲天堂va | 日本成人a | 91精品黄色 | 日韩高清在线一区二区 | 免费日韩一区二区三区 | 国产精品永久在线 | 国产五月色婷婷六月丁香视频 | 亚洲女在线 | 久热国产视频 | 韩国在线一区 | 正在播放 国产精品 | 国产在线观看网站 | 免费在线观看污网站 | 黄网站污| 美女黄频视频大全 | 在线视频日韩一区 | 亚洲精品网站 | 日日日操操 | 国产在线观看av | 992tv在线成人免费观看 | 国产永久免费 | 中文字幕在线播出 | 欧美精品二区 | 中文字幕av网站 | 日日操天天射 | 天堂中文在线视频 | 久久久久久美女 | 久久成人黄色 | 色哟哟国产精品 | 国产精品午夜久久久久久99热 | 久九视频| 亚洲精品网页 | 色偷偷人人澡久久超碰69 | 国产又粗又猛又色又黄视频 | 精品久久久久久国产91 |