日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

拍拍贷魔镜杯风控算法大赛——基于lightgbm

發布時間:2024/5/14 编程问答 57 豆豆
生活随笔 收集整理的這篇文章主要介紹了 拍拍贷魔镜杯风控算法大赛——基于lightgbm 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本文仿照知乎一位大神的文章,基于理解的基礎上,修改了部分代碼~感謝前輩的分享~

參考文獻:

https://zhuanlan.zhihu.com/p/56864235

原始數據來源:

https://www.kesci.com/home/competition/56cd5f02b89b5bd026cb39c9/content/1

數據集構成:

三萬條已知標簽的訓練集,二萬條不知標簽的測試集

訓練集和測試集均有三種表:

Master(主要的特征表)Log_Info(用戶登陸信息表),Userupdate_Info(客戶信息修改更新表)

(1)

  • Master

每一行代表一個樣本(一筆成功成交借款),每個樣本包含200多個各類字段。

idx:每一筆貸款的unique key,可以與另外2個文件里的idx相匹配。

UserInfo_*:借款人特征字段

WeblogInfo_*:Info網絡行為字段

Education_Info*:學歷學籍字段

ThirdParty_Info_PeriodN_*:第三方數據時間段N字段

SocialNetwork_*:社交網絡字段

LinstingInfo:借款成交時間

Target:違約標簽(1 = 貸款違約,0 = 正常還款)。

測試集里不包含target字段。

(2)

  • Log_Info

借款人的登陸信息。

ListingInfo:借款成交時間

LogInfo1:操作代碼

LogInfo2:操作類別

LogInfo3:登陸時間

idx:每一筆貸款的unique key

(3)

  • Userupdate_Info

借款人修改信息

ListingInfo1:借款成交時間

UserupdateInfo1:修改內容

UserupdateInfo2:修改時間

idx:每一筆貸款的unique key

?

本文大體的步驟是:

1)訓練數據和測試數據的合并(為了一起對特征進行處理)

2)分類型變量的清洗

3)基于一些分類型變量和其他表數據(登陸信息表、修改信息表)的特征衍生

4)數值型變量不做處理,缺失值不填充,因為lightgbm可以自行處理缺失值

5)最后對特征工程后的數據集進行特征篩選

6)篩選完后進行建模預測

7)通過調整lightgbm的參數,來提高模型的精度

?

代碼如下:

import numpy as np import pandas as pd import warnings import matplotlib.pyplot as plt import seaborn as sns import os # os.chdir()用于改變當前工作目錄到指定路徑 os.chdir("D:\Py_Data\拍拍貸“魔鏡杯”風控初賽數據")######################################數據的合并######################################### # 訓練集 train_LogInfo = pd.read_csv('.\Training Set\PPD_LogInfo_3_1_Training_Set.csv',encoding='gbk') train_Master = pd.read_csv('.\Training Set\PPD_Training_Master_GBK_3_1_Training_Set.csv',encoding='gbk') train_Userupdate = pd.read_csv('.\Training Set\PPD_Userupdate_Info_3_1_Training_Set.csv',encoding='gbk')# 測試集 test_LogInfo = pd.read_csv('.\Test Set\PPD_LogInfo_2_Test_Set.csv',encoding='gbk') test_Master = pd.read_csv('.\Test Set\PPD_Master_GBK_2_Test_Set.csv',encoding='gb18030') test_Userupdate = pd.read_csv('.\Test Set\PPD_Userupdate_Info_2_Test_Set.csv',encoding='gbk')# 合并時用于標記哪些樣本來自訓練集和測試集 train_Master['sample_status']='train' test_Master['sample_status']='test'# 訓練集和測試集的合并(axis=0,增加行) df_Master = pd.concat([train_Master,test_Master],axis=0).reset_index(drop=True) df_LogInfo=pd.concat([train_LogInfo,test_LogInfo],axis=0).reset_index(drop=True) df_Userupdate=pd.concat([train_Userupdate,test_Userupdate],axis=0).reset_index(drop=True)df_Master.to_csv("D:\Py_Data\拍拍貸“魔鏡杯”風控初賽數據\df_Master.csv",encoding='gb18030',index=False) df_LogInfo.to_csv("D:\Py_Data\拍拍貸“魔鏡杯”風控初賽數據\df_LogInfo.csv",encoding='gb18030',index=False) df_Userupdate.to_csv("D:\Py_Data\拍拍貸“魔鏡杯”風控初賽數據\df_Userupdate.csv",encoding='gb18030',index=False)#####################################數據的探索行分析##################################### # 導入合并后的數據 df_Master = pd.read_csv('df_Master.csv',encoding='gb18030') df_LogInfo = pd.read_csv('df_LogInfo.csv',encoding='gb18030') df_Userupdate = pd.read_csv('df_Userupdate.csv',encoding='gb18030')# 定義顯示形式 pd.set_option("display.max_columns",len(train_Master.columns)) df_Master.head(20) # 可以看到的是,數據主要分為: # 教育信息、第三方信息、社交網絡信息、用戶信息、網絡博客信息、目標標簽(target)和sample_status(自定義,用于區分數據來源于測試/訓練集)# 察看訓練集中好壞樣本比例,1為壞樣本 df_Master.target.value_counts()# 每個個體都是獨一的 len(np.unique(df_Master.Idx))#######################################(1)缺失值處理################################### # 原始中大量的缺失值用-1標識,我們將其替換成np.nan df_Master = df_Master.replace({-1:np.nan}) df_Master.head(15)# 缺失值的可視化——白色越多,代表變量缺失越多 import missingno as msno %matplotlib inline msno.bar(df_Master)# 缺失占比超過80%的變量列表 missing_columns=[] for column in df_Master.columns:if sum(pd.isnull(df_Master[column]))/len(df_Master)>=0.8:missing_columns.append(column) print(len(missing_columns)) print(missing_columns)

# 篩掉缺失大于80%的變量 df_Master = df_Master.loc[:,list(~df_Master.columns.isin(missing_columns))] df_Master.shape# 再來看樣本的特征缺失(行缺失) # 對于某個樣本,特征缺失大于100 missing_index=[] for i in np.arange(df_Master.shape[0]):if list(df_Master.loc[i,:].isnull()).count(True)>100:missing_index.append(i) print(missing_index)

# 刪除特征缺失超過100的行 df_Master = df_Master.drop(missing_index).reset_index(drop=True) df_Master.shape# 單變量占比分析 print("原變量總數:",'\n',len(df_Master.columns)) cols = [col for col in df_Master.columns if col not in ('target','sample_status')] print("排除目標標簽和標記訓練集和測試集來源的變量總數:",'\n',len(cols))# 某個變量的某個取值占比超過90%,說明信息含量低,可以刪除 drop_cols_simple=[] for col in cols:if max(df_Master[col].value_counts())/len(df_Master)>0.9:drop_cols_simple.append(col) print(drop_cols_simple) print(len(drop_cols_simple))df_Master = df_Master.drop(drop_cols_simple,axis=1) df_Master.shape df_Master = df_Master.reset_index(drop=True)# 剩下的變量的類型 df_Master.dtypes.value_counts()objectcol = df_Master.select_dtypes(include=["object"]).columns numcol = df_Master.select_dtypes(include=[np.float64]).columns# 分類型變量只有12個,我們來看一下這些變量有什么規律 df_Master[objectcol]

?

# 可以看到的是 # 表示省份的有 # UserInfo_19和UserInfo_7 # 表示城市的有 # UserInfo_2,UserInfo_20,UserInfo_4,UserInfo_8 city_feature = ['UserInfo_2','UserInfo_20','UserInfo_4','UserInfo_8'] province_feature=['UserInfo_7','UserInfo_19']print("城市特征:") for col in city_feature:print(col,":",df_Master[col].nunique())print('\n') print("省份特征:") for col in province_feature:print(col,":",df_Master[col].nunique())

print(df_Master.UserInfo_8.unique()[:50]) # 可以看到,同一個城市表達不一

# 去掉字段中的“市”,保持統一 df_Master['UserInfo_8'] = [a[:-1] if a.find('市')!= -1 else a[:] for a in df_Master['UserInfo_8']]# 清理后非重復計數減小 df_Master['UserInfo_8'].nunique()# 再來看看數值型變量 df_Master[numcol].head(20) # 這里我們不對數值變量進行缺失值插值或者填充,直接用于后期建模# 再來看看其他的表——該表顯示了客戶修改信息的日志 df_Userupdate

# 將上表的大小寫進行統一 df_Userupdate['UserupdateInfo1'] = df_Userupdate.UserupdateInfo1.map(lambda s:s.lower())######################################特征工程階段####################################### # 至此,我們進入特征處理階段 # 首先對類別變量進行變換 df_Master[objectcol]# 1)省份特征————————推測可能一個是籍貫省份,一個是居住省份 # 首先看看各省份好壞樣本的分布占比 def get_badrate(df,col):'''根據某個變量計算違約率'''group = df.groupby(col)df=pd.DataFrame()df['total'] = group.target.count()df['bad'] = group.target.sum()df['badrate'] = round(df['bad']/df['total'],4)*100 # 百分比形式return df.sort_values('badrate',ascending=False)# 戶籍省份的違約率計算 province_original = get_badrate(df_Master,'UserInfo_19') province_original

?

?

# 居住地省份的違約率計算 province_current = get_badrate(df_Master,'UserInfo_7') province_current

# 各取前5名的省份進行二值化 province_original.iloc[:5,]

province_current.iloc[:5,]

?

# 分別對戶籍省份和居住省份排名前五的省份進行二值化 # 戶籍省份的二值化 df_Master['is_tianjin_UserInfo_19']=df_Master.apply(lambda x:1 if x.UserInfo_19=='天津市' else 0,axis=1) df_Master['is_shandong_UserInfo_19']=df_Master.apply(lambda x:1 if x.UserInfo_19=='山東省' else 0,axis=1) df_Master['is_jilin_UserInfo_19']=df_Master.apply(lambda x:1 if x.UserInfo_19=='吉林省' else 0,axis=1) df_Master['is_heilongjiang_UserInfo_19']=df_Master.apply(lambda x:1 if x.UserInfo_19=='黑龍江省' else 0,axis=1) df_Master['is_hunan_UserInfo_19']=df_Master.apply(lambda x:1 if x.UserInfo_19=='湖南省' else 0,axis=1)# 居住省份的二值化 df_Master['is_tianjin_UserInfo_7']=df_Master.apply(lambda x:1 if x.UserInfo_7=='天津' else 0,axis=1) df_Master['is_shandong_UserInfo_7']=df_Master.apply(lambda x:1 if x.UserInfo_7=='山東' else 0,axis=1) df_Master['is_sichuan_UserInfo_7']=df_Master.apply(lambda x:1 if x.UserInfo_7=='四川' else 0,axis=1) df_Master['is_hainan_UserInfo_7']=df_Master.apply(lambda x:1 if x.UserInfo_7=='海南' else 0,axis=1) df_Master['is_hunan_UserInfo_7']=df_Master.apply(lambda x:1 if x.UserInfo_7=='湖南' else 0,axis=1)# 戶籍省份和居住地省份不一致的特征衍生 print(df_Master.UserInfo_19.unique()) print('\n') print(df_Master.UserInfo_7.unique())# 首先將兩者改成相同的形式 UserInfo_19_change = [] for i in df_Master.UserInfo_19:if i in ('內蒙古自治區','黑龍江省'):j = i[:3]else:j = i[:2]UserInfo_19_change.append(j) print(np.unique(UserInfo_19_change))# 判斷UserInfo_7和UserInfo_19是否一致 is_same_province=[] for i,j in zip(df_Master.UserInfo_7,UserInfo_19_change):if i==j:a=1else:a=0is_same_province.append(a) df_Master['is_same_province'] = is_same_province # 2)城市特征 # 原數據中有四個城市特征,推測為用戶常登陸的IP地址城市 # 特征衍生思路: # 一,通過xgboost挑選重要的城市,進行二值化 # 二,由四個城市特征的非重復計數衍生生成登陸IP地址的變更次數# 根據xgboost變量重要性的輸出對城市作二值化衍生 df_Master_temp = df_Master[['UserInfo_2','UserInfo_4','UserInfo_8','UserInfo_20','target']] df_Master_temp.head()

area_list=[] # 將四個城市特征都進行啞變量處理 for col in df_Master_temp:dummy_df = pd.get_dummies(df_Master_temp[col])dummy_df = pd.concat([dummy_df,df_Master_temp['target']],axis=1)area_list.append(dummy_df) df_area1 = area_list[0] df_area2 = area_list[1] df_area3 = area_list[2] df_area4 = area_list[3]df_area1

# 使用xgboost篩選出重要的城市 from xgboost.sklearn import XGBClassifier from xgboost import plot_importance# 注意,這里需要把合并后的沒有目標標簽的行數據刪除 # df_area1[~(df_area1['target'].isnull())]x_area1 = df_area1[~(df_area1['target'].isnull())].drop(['target'],axis=1) y_area1 = df_area1[~(df_area1['target'].isnull())]['target'] x_area2 = df_area2[~(df_area2['target'].isnull())].drop(['target'],axis=1) y_area2 = df_area2[~(df_area2['target'].isnull())]['target'] x_area3 = df_area3[~(df_area3['target'].isnull())].drop(['target'],axis=1) y_area3 = df_area3[~(df_area3['target'].isnull())]['target'] x_area4 = df_area4[~(df_area4['target'].isnull())].drop(['target'],axis=1) y_area4 = df_area4[~(df_area4['target'].isnull())]['target']xg_area1 = XGBClassifier(random_state=0).fit(x_area1,y_area1) xg_area2 = XGBClassifier(random_state=0).fit(x_area2,y_area2) xg_area3 = XGBClassifier(random_state=0).fit(x_area3,y_area3) xg_area4 = XGBClassifier(random_state=0).fit(x_area4,y_area4)plt.rcParams['font.sans-serif'] = ['Microsoft YaHei'] fig = plt.figure(figsize=(20,8)) ax1 = fig.add_subplot(2,2,1) ax2 = fig.add_subplot(2,2,2) ax3 = fig.add_subplot(2,2,3) ax4 = fig.add_subplot(2,2,4)plot_importance(xg_area1,ax=ax1,max_num_features=10,height=0.4) plot_importance(xg_area2,ax=ax2,max_num_features=10,height=0.4) plot_importance(xg_area3,ax=ax3,max_num_features=10,height=0.4) plot_importance(xg_area4,ax=ax4,max_num_features=10,height=0.4)

?

# 將特征重要性排名前三的城市進行二值化: df_Master['is_zibo_UserInfo_2'] = df_Master.apply(lambda x:1 if x.UserInfo_2=='淄博' else 0,axis=1) df_Master['is_chengdu_UserInfo_2'] = df_Master.apply(lambda x:1 if x.UserInfo_2=='成都' else 0,axis=1) df_Master['is_yantai_UserInfo_2'] = df_Master.apply(lambda x:1 if x.UserInfo_2=='煙臺' else 0,axis=1)df_Master['is_zibo_UserInfo_4'] = df_Master.apply(lambda x:1 if x.UserInfo_4=='淄博' else 0,axis=1) df_Master['is_qingdao_UserInfo_4'] = df_Master.apply(lambda x:1 if x.UserInfo_4=='青島' else 0,axis=1) df_Master['is_shantou_UserInfo_4'] = df_Master.apply(lambda x:1 if x.UserInfo_4=='汕頭' else 0,axis=1)df_Master['is_zibo_UserInfo_8'] = df_Master.apply(lambda x:1 if x.UserInfo_8=='淄博' else 0,axis=1) df_Master['is_chengdu_UserInfo_8'] = df_Master.apply(lambda x:1 if x.UserInfo_8=='成都' else 0,axis=1) df_Master['is_heze_UserInfo_8'] = df_Master.apply(lambda x:1 if x.UserInfo_8=='菏澤' else 0,axis=1)df_Master['is_ziboshi_UserInfo_20'] = df_Master.apply(lambda x:1 if x.UserInfo_20=='淄博市' else 0,axis=1) df_Master['is_chengdushi_UserInfo_20'] = df_Master.apply(lambda x:1 if x.UserInfo_20=='成都市' else 0,axis=1) df_Master['is_sanmenxiashi_UserInfo_20'] = df_Master.apply(lambda x:1 if x.UserInfo_20=='三門峽市' else 0,axis=1)#特征衍生-IP地址變更次數特征 df_Master['UserInfo_20'] = [a[:-1] if a.find('市')!= -1 else i[:] for a in df_Master.UserInfo_20] city_df = df_Master[['UserInfo_2','UserInfo_4','UserInfo_8','UserInfo_20']]city_change_cnt =[] for i in range(city_df.shape[0]):a = list(city_df.iloc[i])city_count = len(set(a))city_change_cnt.append(city_count) df_Master['city_count_cnt'] = city_change_cnt# 3)運營商種類少,直接將其轉換成啞變量 print(df_Master.UserInfo_9.value_counts()) print(set(df_Master.UserInfo_9))

df_Master['UserInfo_9'] = df_Master.UserInfo_9.replace({'中國聯通 ':'china_unicom','中國聯通':'china_unicom','中國移動':'china_mobile','中國移動 ':'china_mobile','中國電信':'china_telecom','中國電信 ':'china_telecom','不詳':'operator_unknown'})operator_dummy = pd.get_dummies(df_Master.UserInfo_9) df_Master = pd.concat([df_Master,operator_dummy],axis=1)# 刪除原變量 df_Master = df_Master.drop(['UserInfo_9'],axis=1) df_Master = df_Master.drop(['UserInfo_19','UserInfo_2','UserInfo_4','UserInfo_7','UserInfo_8','UserInfo_20'],axis=1)# 看看還剩下哪些類型變量要處理 df_Master.dtypes.value_counts() df_Master.select_dtypes(include='object')

# 可以看到,我們要將這些weibo變量進行處理 # 4) 微博特征 for col in ['WeblogInfo_19','WeblogInfo_20','WeblogInfo_21']:df_Master[col].replace({'nan':np.nan}) # 將字符型的nan,利用眾數填充df_Master[col] = df_Master[col].fillna(df_Master[col].mode()[0])# 看看這些變量有幾種類型的值 for col in ['WeblogInfo_19','WeblogInfo_20','WeblogInfo_21']:print(df_Master[col].value_counts())print('\n')# 這里我們猜測WeblogInfo_20是WeblogInfo_19和21的更細化表達,這里直接刪除該變量 # 對其他變量進行啞變量處理df_Master['WeblogInfo_19'] = ['WeblogInfo_19'+ i for i in df_Master.WeblogInfo_19] df_Master['WeblogInfo_21'] = ['WeblogInfo_21'+ i for i in df_Master.WeblogInfo_21]for col in ['WeblogInfo_19','WeblogInfo_21']:weibo_dummy = pd.get_dummies(df_Master[col])df_Master = pd.concat([df_Master,weibo_dummy],axis=1)# 刪除原變量 df_Master = df_Master.drop(['WeblogInfo_19','WeblogInfo_21','WeblogInfo_20'],axis=1)# 至此,類別變量處理完畢 df_Master.dtypes.value_counts() # 我們來看看借款的成交時間趨勢 # 首先將字符型的日期轉換成時間戳形式 import datetime from datetime import datetime df_Master['ListingInfo'] = pd.to_datetime(df_Master.ListingInfo) df_Master["Month"] = df_Master.ListingInfo.apply(lambda x:datetime.strftime(x,"%Y-%m"))plt.figure(figsize=(20,4)) plt.title("借款成功的時間趨勢變化") plt.rcParams['font.sans-serif']=['Microsoft YaHei'] sns.countplot(data=df_Master.sort_values('Month'),x='Month') plt.show()

# 也可以看看違約率的月變化趨勢 month_group = df_Master.groupby('Month') df_badrate_month = pd.DataFrame() df_badrate_month['total'] = month_group.target.count() df_badrate_month['bad'] = month_group.target.sum() df_badrate_month['badrate'] = df_badrate_month['bad']/df_badrate_month['total'] df_badrate_month=df_badrate_month.reset_index()plt.figure(figsize=(12,4)) plt.title('違約率的時間趨勢圖') sns.pointplot(data=df_badrate_month,x='Month',y='badrate',linestyles='-') plt.show() # 注:空值的部分代表的是預測樣本

# 我們不對數值型變量的缺失值做處理 df_Master = df_Master.drop('Month',axis=1)# LogInfo表 df_LogInfo# 衍生的變量有 # 1)累計登陸次數 # 2)登陸時間的平均間隔 # 3)最近一次的登陸時間距離成交時間差# 1)累計登陸次數 log_cnt = df_LogInfo.groupby('Idx',as_index=False).LogInfo3.count().rename(columns={'LogInfo3':'log_cnt'}) log_cnt.head(10)

?

# 2)最近一次的登陸時間距離成交時間差# 最近一次的登錄時間距離當前時間差 df_LogInfo['Listinginfo1']=pd.to_datetime(df_LogInfo.Listinginfo1) df_LogInfo['LogInfo3'] = pd.to_datetime(df_LogInfo.LogInfo3) time_log_span = df_LogInfo.groupby('Idx',as_index=False).agg({'Listinginfo1':np.max,'LogInfo3':np.max}) time_log_span.head()time_log_span['log_timespan'] = time_log_span['Listinginfo1']-time_log_span['LogInfo3'] time_log_span['log_timespan'] = time_log_span['log_timespan'].map(lambda x:str(x))time_log_span['log_timespan'] = time_log_span['log_timespan'].map(lambda x:int(x[:x.find('d')])) time_log_span= time_log_span[['Idx','log_timespan']] time_log_span.head()

# 3)登陸時間的平均時間間隔df_temp_timeinterval = df_LogInfo.sort_values(by=['Idx','LogInfo3'],ascending=['True','True']) df_temp_timeinterval['LogInfo4'] = df_temp_timeinterval.groupby('Idx')['LogInfo3'].apply(lambda x:x.shift(1)) df_temp_timeinterval

df_temp_timeinterval['time_span'] = df_temp_timeinterval['LogInfo3'] - df_temp_timeinterval['LogInfo4'] df_temp_timeinterval['time_span'] = df_temp_timeinterval['time_span'] .map(lambda x:str(x)) df_temp_timeinterval['time_span'] = df_temp_timeinterval['time_span'].replace({'NaT':'0 days 00:00:00'}) df_temp_timeinterval['time_span'] = df_temp_timeinterval['time_span'].map(lambda x:int(x[:x.find('d')])) df_temp_timeinterval

avg_log_timespan = df_temp_timeinterval.groupby('Idx',as_index=False).time_span.mean().rename(columns={'time_span':'avg_log_timespan'})log_info = pd.merge(log_cnt,time_log_span,how='left',on='Idx') log_info = pd.merge(log_info,avg_log_timespan,how='left',on='Idx') log_info.head()

log_info.to_csv('D:\Py_Data\拍拍貸“魔鏡杯”風控初賽數據\log_info_feature.csv',encoding='gbk',index=False)# 修改信息表 # 衍生變量: # 1)最近的修改時間距離成交時間差; # 2)修改信息總次數 # 3)每種信息修改的次數 # 4)按照日期修改的次數# 1)最近的修改時間距離成交時間差; df_Userupdate['ListingInfo1']=pd.to_datetime(df_Userupdate['ListingInfo1']) df_Userupdate['UserupdateInfo2']=pd.to_datetime(df_Userupdate['UserupdateInfo2']) time_span = df_Userupdate.groupby('Idx',as_index=False).agg({'UserupdateInfo2':np.max,'ListingInfo1':np.max}) time_span['update_timespan'] = time_span['ListingInfo1']-time_span['UserupdateInfo2'] time_span['update_timespan'] = time_span['update_timespan'].map(lambda x:str(x)) time_span['update_timespan'] = time_span['update_timespan'].map(lambda x:int(x[:x.find('d')])) time_span = time_span[['Idx','update_timespan']]# 2)計算每個用戶修改不同類別信息的次數 group = df_Userupdate.groupby(['Idx','UserupdateInfo1'],as_index=False).agg({'UserupdateInfo2':pd.Series.nunique})# 3)每種信息修改的次數的衍生 user_df_list=[] for idx in group.Idx.unique():user_df = group[group.Idx==idx]change_cate = list(user_df.UserupdateInfo1)change_cnt = list(user_df.UserupdateInfo2)user_col = ['Idx']+change_cateuser_value = [user_df.iloc[0]['Idx']]+change_cntuser_df2 = pd.DataFrame(np.array(user_value).reshape(1,len(user_value)),columns=user_col)user_df_list.append(user_df2) cate_change_df = pd.concat(user_df_list,axis=0) cate_change_df.head()

# 將cate_change_df里的空值填為0 cate_change_df = cate_change_df.fillna(0) cate_change_df.shapedf_Userupdate# 4)修改信息的總次數,按照日期修改的次數的衍生 update_cnt = df_Userupdate.groupby('Idx',as_index=False).agg({'UserupdateInfo2':pd.Series.nunique,'ListingInfo1':pd.Series.count}).\rename(columns={'UserupdateInfo2':'update_time_cnt','ListingInfo1':'update_all_cnt'}) update_cnt.head()

# 將三個衍生特征的臨時表進行關聯 update_info = pd.merge(time_span,cate_change_df,on='Idx',how='left') update_info = pd.merge(update_info,update_cnt,on='Idx',how='left') update_info.head()

# 保存數據至本地 update_info.to_csv(r'D:\Py_Data\拍拍貸“魔鏡杯”風控初賽數據\update_feature.csv',encoding='gbk',index=False)df_Master.to_csv(r'D:\Py_Data\拍拍貸“魔鏡杯”風控初賽數據\df_Master_tackled.csv',encoding='gbk',index=False) # 合并三個表的數據 df_Master_tackled= pd.read_csv('df_Master_tackled.csv',encoding='gbk') df_LogInfo_tackled = pd.read_csv('log_info_feature.csv',encoding='gbk') df_Userupdate_tackled = pd.read_csv('update_feature.csv',encoding='gbk')df_final = pd.merge(df_Master_tackled,df_LogInfo_tackled,on='Idx',how='left') df_final = pd.merge(df_final,df_Userupdate_tackled,on='Idx',how='left') df_final.shape #########################################特征篩選####################################### # 用lightGBM篩選特征, # 這里訓練10個模型,并對10個模型輸出的特征重要性取平均,最后對特征重要性的值進行歸一化 # 以上將訓練集和測試集合并是為了處理特征,現在再將兩者劃分開,用于模型訓練 # 將三萬訓練集劃分成訓練集和測試集,沒有目標標簽的2萬樣本作為預測集from sklearn.model_selection import train_test_splitX_train,X_test, y_train, y_test = train_test_split(df_final[df_final.sample_status=='train'].drop(['Idx','sample_status','target','ListingInfo'],axis=1),df_final[df_final.sample_status=='train']['target'],test_size=0.3, random_state=0)train_fea = np.array(X_train) test_fea = np.array(X_test) evaluate_fea = np.array(df_final[df_final.sample_status=='test'].drop(['Idx','sample_status','target','ListingInfo'],axis=1))# # reshape(-1,1轉成一列 train_label = np.array(y_train).reshape(-1,1) test_label = np.array(y_test).reshape(-1,1) evaluate_label = np.array(df_final[df_final.sample_status=='test']['target']).reshape(-1,1)fea_names = list(X_train.columns) feature_importance_values = np.zeros(len(fea_names)) # 訓練10個lightgbm,并對10個模型輸出的feature_importances_取平均import lightgbm as lgb from lightgbm import plot_importancefor i in np.arange(10):model = lgb.LGBMClassifier(n_estimators=1000,learning_rate=0.05,n_jobs=-1,verbose=-1)model.fit(train_fea,train_label,eval_metric='auc',eval_set = [(test_fea, test_label)],early_stopping_rounds=100,verbose = -1)feature_importance_values += model.feature_importances_/10# 將feature_importance_values存成臨時表 fea_imp_df1 = pd.DataFrame({'feature':fea_names,'fea_importance':feature_importance_values}) fea_imp_df1 = fea_imp_df1.sort_values('fea_importance',ascending=False).reset_index(drop=True) fea_imp_df1['norm_importance'] = fea_imp_df1['fea_importance']/fea_imp_df1['fea_importance'].sum() # 特征重要性value的歸一化 fea_imp_df1['cum_importance'] = np.cumsum(fea_imp_df1['norm_importance'])# 特征重要性value的累加值fea_imp_df1

# 特征重要性可視化 plt.figure(figsize=(16,16)) plt.rcParams['font.sans-serif']=['Microsoft YaHei'] plt.subplot(3,1,1) plt.title('特征重要性') sns.barplot(data=fea_imp_df1.iloc[:10,:],x='norm_importance',y='feature')plt.subplot(3,1,2) plt.title('特征重要性累加圖') plt.xlabel('特征個數') plt.ylabel('cum_importance') plt.plot(list(range(1, len(fea_names)+1)),fea_imp_df1['cum_importance'], 'r-')plt.subplot(3,1,3) plt.title('各個特征的歸一化得分') plt.xlabel('特征') plt.ylabel('norm_importance') plt.plot(fea_imp_df1.feature,fea_imp_df1['norm_importance'], 'b*-') plt.show()

# 剔除特征重要性為0的變量 zero_imp_col = list(fea_imp_df1[fea_imp_df1.fea_importance==0].feature) fea_imp_df11 = fea_imp_df1[~(fea_imp_df1.feature.isin(zero_imp_col))] print('特征重要性為0的變量個數為 :{}'.format(len(zero_imp_col))) print(zero_imp_col) # 剔除特征重要性比較弱的變量 low_imp_col = list(fea_imp_df11[fea_imp_df11.cum_importance>=0.99].feature) print('特征重要性比較弱的變量個數為:{}'.format(len(low_imp_col))) print(low_imp_col)

?

# 刪除特征重要性為0和比較弱的特征 drop_imp_col = zero_imp_col+low_imp_col mydf_final_fea_selected = df_final.drop(drop_imp_col,axis=1) mydf_final_fea_selected.shape# (49701, 160)mydf_final_fea_selected.to_csv(r'D:\Py_Data\拍拍貸“魔鏡杯”風控初賽數據\mydf_final_fea_selected.csv',encoding='gbk',index=False) ##############################################建模###################################### # 篩選完特征后,再將該數據集切分成訓練集和測試集,并通過調參提高精度,然后使用精度最高的模型預測2萬個樣本的標簽# 導入數據.用于建模 df = pd.read_csv('mydf_final_fea_selected.csv',encoding='gbk')x_data = df[df.sample_status=='train'].drop(['Idx','sample_status','target','ListingInfo'],axis=1) y_data = df[df.sample_status=='train']['target']# 劃分訓練集和測試集 x_train,x_test, y_train, y_test = train_test_split(x_data,y_data,test_size=0.2)# 訓練模型 lgb_sklearn = lgb.LGBMClassifier(random_state=0).fit(x_train,y_train)# # 預測測試集的樣本 lgb_sklearn_pre = lgb_sklearn.predict_proba(x_test)###計算roc和auc from sklearn.metrics import roc_curve, auc def acu_curve(y,prob):# y真實,# prob預測fpr,tpr,threshold = roc_curve(y,prob) ###計算真陽性率(真正率)和假陽性率(假正率)roc_auc = auc(fpr,tpr) ###計算auc的值plt.figure()lw = 2plt.figure(figsize=(12,10))plt.plot(fpr, tpr, color='darkorange',lw=lw, label='ROC curve (AUC = %0.3f)' % roc_auc) ###假正率為橫坐標,真正率為縱坐標做曲線plt.plot([0, 1], [0, 1], color='navy', lw=lw, linestyle='--')plt.xlim([0.0, 1.0])plt.ylim([0.0, 1.05])plt.xlabel('False Positive Rate')plt.ylabel('True Positive Rate')plt.title('AUC')plt.legend(loc="lower right")plt.show()acu_curve(y_test,lgb_sklearn_pre[:,1])

# 以上是sklearn版,下面是原生版本 import time # 原生的lightgbm lgb_train = lgb.Dataset(x_train,y_train) lgb_test = lgb.Dataset(x_test,y_test,reference=lgb_train) lgb_origi_params = {'boosting_type':'gbdt','max_depth':-1,'num_leaves':31,'bagging_fraction':1.0,'feature_fraction':1.0,'learning_rate':0.1,'metric': 'auc'} start = time.time() lgb_origi = lgb.train(train_set=lgb_train,early_stopping_rounds=10,num_boost_round=400,params=lgb_origi_params,valid_sets=lgb_test) end = time.time() print('運行時間為{}秒'.format(round(end-start,0)))

# 原生的lightgbm的AUC lgb_origi_pre = lgb_origi.predict(x_test) acu_curve(y_test,lgb_origi_pre)

########################################lightgbm嘗試調參################################## 確定最大迭代次數,學習率設為0.1 base_parmas={'boosting_type':'gbdt', # 使用的算法,還有rf,dart,goss'learning_rate':0.1,'num_leaves':40, # 一棵樹上的葉子數,默認31'max_depth':-1, # 樹的最大深度,0:無限制'bagging_fraction':0.8, # 每次迭代隨機選取部分數據'feature_fraction':0.8, # 每次迭代隨機選取部分特征'lambda_l1':0, # 正則化,'lambda_l2':0,'min_data_in_leaf':20, # 一個葉子上數據的最小數量,默認20,處理過擬合,設置較大可以避免生成一個較深的樹,'min_sum_hessian_inleaf':0.001, # 一個葉子上最小hessian和,,處理過擬合'metric':'auc'}cv_result = lgb.cv(train_set=lgb_train,num_boost_round=200, # 迭代次數,默認100early_stopping_rounds=5, # 沒有提高,模型將停止訓練nfold=5,stratified=True,shuffle=True,params=base_parmas,metrics='auc',seed=0)print('最大的迭代次數: {}'.format(len(cv_result['auc-mean']))) print('交叉驗證的AUC: {}'.format(max(cv_result['auc-mean'])))# 輸出 # 最大的迭代次數: 28 # 交叉驗證的AUC: 0.7136171096752256 # num_leaves ,步長設為5from sklearn.model_selection import GridSearchCV from sklearn.model_selection import cross_val_score from sklearn.model_selection import StratifiedKFoldparam_find1 = {'num_leaves':range(10,50,5)} cv_fold = StratifiedKFold(n_splits=5,random_state=0,shuffle=True) start = time.time() grid_search1 = GridSearchCV(estimator=lgb.LGBMClassifier(learning_rate=0.1,n_estimators = 28,max_depth=-1,min_child_weight=0.001,min_child_samples=20,subsample=0.8,colsample_bytree=0.8,reg_lambda=0,reg_alpha=0),cv = cv_fold,n_jobs=-1,param_grid = param_find1,scoring='roc_auc') grid_search1.fit(x_train,y_train) end = time.time() print('運行時間為:{}'.format(round(end-start,0)))print(grid_search1.get_params) print('\t') print(grid_search1.best_params_) print('\t') print(grid_search1.best_score_) grid_search1.get_params

# num_leaves,步長為1 param_find2 = {'num_leaves':range(40,50,1)} grid_search2 = GridSearchCV(estimator=lgb.LGBMClassifier(n_estimators=28,learning_rate=0.1,min_child_weight=0.001,min_child_samples=20,subsample=0.8,colsample_bytree=0.8,reg_lambda=0,reg_alpha=0),cv=cv_fold,n_jobs=-1,scoring='roc_auc',param_grid = param_find2) grid_search2.fit(x_train,y_train) print(grid_search2.get_params) print('\t') print(grid_search2.best_params_) print('\t') print(grid_search2.best_score_)

# 確定num_leaves 為41 ,下面進行min_child_samples 和 min_child_weight的調參,設定步長為5 param_find3 = {'min_child_samples':range(15,35,5),'min_child_weight':[x/1000 for x in range(1,4,1)]} grid_search3 = GridSearchCV(estimator=lgb.LGBMClassifier(estimator=28,learning_rate=0.1,num_leaves=41,subsample=0.8,colsample_bytree=0.8,reg_lambda=0,reg_alpha=0),cv=cv_fold,scoring='roc_auc',param_grid = param_find3,n_jobs=-1) start = time.time() grid_search3.fit(x_train,y_train) end = time.time() print('運行時間:{} 秒'.format(round(end-start,0)))print(grid_search3.get_params) print('\t') print(grid_search3.best_params_) print('\t') print(grid_search3.best_score_)

# 確定min_child_weight為0.001,min_child_samples為20,下面對subsample和colsample_bytree進行調參 param_find4 = {'subsample':[x/10 for x in range(5,11,1)],'colsample_bytree':[x/10 for x in range(5,11,1)]} grid_search4 = GridSearchCV(estimator=lgb.LGBMClassifier(estimator=28,learning_rate=0.1,min_child_samples=20,min_child_weight=0.001,num_leaves=41,reg_lambda=0,reg_alpha=0),cv=cv_fold,scoring='roc_auc',param_grid = param_find4,n_jobs=-1) start = time.time() grid_search4.fit(x_train,y_train) end = time.time() print('運行時間:{} 秒'.format(round(end-start,0))) print(grid_search4.get_params) print('\t') print(grid_search4.best_params_) print('\t') print(grid_search4.best_score_)

# 再調整reg_lambda和reg_alpha param_find5 = {'reg_lambda':[0.001,0.01,0.03,0.08,0.1,0.3],'reg_alpha':[0.001,0.01,0.03,0.08,0.1,0.3]} grid_search5 = GridSearchCV(estimator=lgb.LGBMClassifier(estimator=28,learning_rate=0.1,min_child_samples=20,min_child_weight=0.001,num_leaves=41,subsample= 0.5,colsample_bytree=0.8 ),cv=cv_fold,scoring='roc_auc',param_grid = param_find5,n_jobs=-1) start = time.time() grid_search5.fit(x_train,y_train) end = time.time() print('運行時間:{} 秒'.format(round(end-start,0))) print(grid_search5.get_params) print('\t') print(grid_search5.best_params_) print('\t') print(grid_search5.best_score_)

param_find6 = {'learning_rate':[0.001,0.002,0.003,0.004,0.005,0.01,0.03,0.08,0.1,0.3,0.5]} grid_search6 = GridSearchCV(estimator=lgb.LGBMClassifier(estimator=28,min_child_samples=20,min_child_weight=0.001,num_leaves=41,subsample= 0.5,colsample_bytree=0.8 ,reg_alpha=0.1,reg_lambda=0.3),cv=cv_fold,scoring='roc_auc',param_grid = param_find6,n_jobs=-1) start = time.time() grid_search6.fit(x_train,y_train) end = time.time() print('運行時間:{} 秒'.format(round(end-start,0))) print(grid_search6.get_params) print('\t') print(grid_search6.best_params_) print('\t') print(grid_search6.best_score_)

# 將最佳參數再次帶入cv函數 best_params = {'boosting_type':'gbdt','learning_rate': 0.08,'num_leaves':41,'max_depth':-1,'bagging_fraction':0.5,'feature_fraction':0.8,'min_data_in_leaf':20,'min_sum_hessian_in_leaf':0.001,'lambda_l1':0.1,'lambda_l2':0.3,'metric':'auc' }best_cv = lgb.cv(train_set=lgb_train,early_stopping_rounds=5,num_boost_round=200,nfold=5,params=best_params,metrics='auc',stratified=True,shuffle=True,seed=0)print('最佳參數的迭代次數: {}'.format(len(best_cv['auc-mean']))) print('交叉驗證的AUC: {}'.format(max(best_cv['auc-mean'])))# 最佳參數的迭代次數: 50 # 交叉驗證的AUC: 0.7167089545162871 lgb_single_model = lgb.LGBMClassifier(n_estimators=50,learning_rate=0.08,min_child_weight=0.001,min_child_samples = 20,subsample=0.5,colsample_bytree=0.8,num_leaves=41,max_depth=-1,reg_lambda=0.3,reg_alpha=0.1,random_state=0) lgb_single_model.fit(x_train,y_train)pre = lgb_single_model.predict_proba(x_test)[:,1] acu_curve(y_test,pre)

?

?

總結

以上是生活随笔為你收集整理的拍拍贷魔镜杯风控算法大赛——基于lightgbm的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

国产成人精品亚洲精品 | 五月激情综合婷婷 | av片子在线观看 | 久久久久久久久久久免费 | 在线观看的黄色 | 99草视频 | 中文字幕123区 | 亚洲激情 欧美激情 | avove黑丝| 久草在线免费看视频 | 亚洲 欧美 变态 国产 另类 | 手机看片国产日韩 | 五月开心六月婷婷 | 亚洲精品欧美专区 | 国产精品99在线观看 | 九九久久免费 | 久久久久福利视频 | 久久久久久国产一区二区三区 | 狠狠的干| 亚洲精品一区二区18漫画 | 国产精品一区电影 | 欧美日韩一区二区三区在线免费观看 | 久久国产热视频 | 国产精品成人国产乱 | 午夜性生活 | 日韩成人免费在线电影 | 99精品国产免费久久久久久下载 | 91视频免费网址 | 成人黄色电影免费观看 | 狠狠天天 | 天天插天天干天天操 | 黄色特级片 | 久久久久久黄 | 欧美一级性生活 | 国产一级片直播 | 国产视频精品在线 | 四虎成人精品永久免费av | 99久久er热在这里只有精品66 | 国产一区二区久久精品 | 97超碰超碰| 国产 亚洲 欧美 在线 | 久久免费国产电影 | 伊人午夜 | 国产免费二区 | 久久黄色小说视频 | 97视频亚洲 | 99视频在线精品国自产拍免费观看 | 制服丝袜在线91 | 国产精品毛片一区二区三区 | 国产一区二区三区免费视频 | 中文字幕日韩在线播放 | 99久久精品免费一区 | av综合 日韩 | 9999毛片| 日韩av影片在线观看 | 久久国产精品99久久久久久老狼 | 啪啪免费试看 | 天天天干夜夜夜操 | 一区二区视频在线播放 | 亚洲黄色免费电影 | www.狠狠操.com| 欧美精品久久久久久久 | 亚洲欧洲精品久久 | 精品国产一区二区三区四区vr | 在线亚洲人成电影网站色www | 欧美日韩精品在线观看视频 | 亚洲影视九九影院在线观看 | 国产免费xvideos视频入口 | 99热精品在线观看 | 九九热视频在线播放 | 99精品免费在线 | 三三级黄色片之日韩 | 久青草视频在线观看 | 在线免费观看黄色 | 成人在线观看网址 | 亚洲1级片 | 免费成人黄色 | 亚洲九九九在线观看 | 在线视频你懂得 | 欧美美女视频在线观看 | 少妇bbbb揉bbbb日本 | 伊人夜夜| 久久久亚洲麻豆日韩精品一区三区 | 看片网站黄色 | 精品在线免费观看 | 日韩视频1 | 91成年视频 | 国产亚洲综合性久久久影院 | 日本最大色倩网站www | 日韩一区二区三区在线观看 | 国产色中涩 | 亚洲国产精品久久久久婷婷884 | 色综合久久88色综合天天人守婷 | 蜜臀久久99静品久久久久久 | 色综合久久久 | 国产91精品看黄网站 | 美女激情影院 | 在线观看免费av网站 | 国产麻豆精品在线观看 | 国产xx视频 | 天天综合天天做天天综合 | 久久免费电影网 | 午夜在线免费观看 | 91精品国产99久久久久久久 | 偷拍精偷拍精品欧洲亚洲网站 | 免费视频黄色 | 亚洲欧洲美洲av | 9幺看片 | 国产成人精品一二三区 | 最近中文字幕在线播放 | 99精品视频免费 | 久久五月婷婷丁香社区 | 日韩激情中文字幕 | 狠狠的干狠狠的操 | 99这里只有久久精品视频 | 成人免费观看在线视频 | 国产黑丝袜在线 | 波多野结衣在线观看一区 | 蜜臀av性久久久久蜜臀aⅴ涩爱 | 四虎国产精品免费 | 欧美日本高清视频 | 国产最新在线观看 | 激情久久久久久久久久久久久久久久 | 国产精品免费久久久久 | 一区二区高清在线 | 国际av在线 | 久99久中文字幕在线 | 国产二区视频在线观看 | 日韩在线精品一区 | 久久国产精品视频观看 | 中文亚洲欧美日韩 | 草久在线 | 国产香蕉视频在线播放 | 亚洲精品一区二区三区新线路 | 成人黄色小说网 | 免费看黄的视频 | 色999精品| 午夜精品一区二区三区四区 | 久久久视屏 | 国产午夜一区二区 | 91亚洲精品久久久 | 久久艹艹| 国产专区在线播放 | 天天操天天添 | 99久久精品免费看 | 夜夜骑首页 | 四虎永久国产精品 | 日韩在线三区 | 日本精品久久久久中文字幕5 | 久久国产免 | 夜夜躁日日躁狠狠久久88av | 91精品秘密在线观看 | 久久麻豆精品 | 美女免费黄视频网站 | 久久91久久久久麻豆精品 | 国产一区在线不卡 | 亚洲色图激情文学 | 国产91成人在在线播放 | 久久久久久免费 | 亚洲狠狠丁香婷婷综合久久久 | 五月婷婷av在线 | 国产婷婷色 | 丁香久久激情 | 天天骚夜夜操 | 美女福利视频 | 欧美日韩亚洲国产一区 | 欧美日韩国语 | 午夜在线看片 | 欧美日本三级 | 国内精品久久天天躁人人爽 | 黄色一级大片在线观看 | 久久欧美精品 | 日韩精品一区二区免费 | 免费下载高清毛片 | 日本aa在线| 九九久久成人 | 波多野结衣精品 | 免费91在线 | 96国产在线| 精品欧美一区二区在线观看 | 亚洲 成人 欧美 | 天天综合网 天天 | 欧美aaa级片 | 不卡av在线播放 | 美女久久精品 | 在线观看国产永久免费视频 | 日本黄色免费播放 | 欧美精品天堂 | 在线观看国产一区二区 | 免费视频18 | 日韩高清不卡一区二区三区 | 欧美一级久久久久 | 久久免费99精品久久久久久 | 狠狠插天天干 | 精品视频专区 | 美女黄频视频大全 | 精品国产免费观看 | 97精产国品一二三产区在线 | 亚洲中字幕| 日本黄色免费在线观看 | 久久女同性恋中文字幕 | 一级黄色在线免费观看 | 亚洲精品高清视频在线观看 | 九九热免费在线观看 | 亚洲国产欧美在线看片xxoo | 精品亚洲欧美一区 | a级一a一级在线观看 | 九色精品免费永久在线 | 在线观看www91 | 中文字幕亚洲情99在线 | 麻豆视频免费网站 | 国产精品久久久久久久免费大片 | 国产美女黄网站免费 | 天天操天天射天天爱 | 高清国产午夜精品久久久久久 | av免费黄色 | 欧美精品乱码久久久久久 | 免费久久久久久久 | 国产视频手机在线 | 最近中文字幕完整高清 | 五月婷婷激情五月 | 欧美日韩一区二区在线观看 | 91在线播放综合 | 国产黄色精品在线 | 深爱综合网 | 国产精品一区二区免费在线观看 | 亚洲在线网址 | 久久论理 | 日韩乱理 | 免费在线观看一区二区三区 | 激情网站五月天 | 一区二区三区四区免费视频 | 涩涩网站在线看 | 婷婷综合av | 69xxxx欧美| 97网| 美女在线免费视频 | 成人在线超碰 | 国产做a爱一级久久 | 成人av在线播放网站 | 国产精品久久一区二区无卡 | 免费一区在线 | 婷婷色综合| 青草视频免费观看 | 国产精品少妇 | 伊人久久婷婷 | 亚洲综合色播 | 国产一区二区在线影院 | 国产小视频免费观看 | 视频精品一区二区三区 | 成人av电影免费在线观看 | 国产黄av | 国产精品久久久久一区二区三区共 | 国产录像在线观看 | www.天堂av | 日韩特级毛片 | 欧美日韩中文字幕综合视频 | 在线看小早川怜子av | 日韩在线观看中文 | 亚洲国产日韩欧美 | 天天躁日日躁狠狠躁 | 中文在线天堂资源 | 久久免费国产电影 | 99热这里只有精品免费 | 久久久久亚洲精品中文字幕 | 激情视频国产 | 三级av在线 | 91精品国自产在线偷拍蜜桃 | 色网站免费在线看 | 天堂网一区二区 | 麻豆免费精品视频 | a在线观看免费视频 | 最新av免费在线观看 | 精品在线播放视频 | 国产精品99免费看 | 国产成人福利片 | 黄色国产高清 | 麻豆免费在线播放 | 91大神在线看| 国产一区二区高清 | 尤物97国产精品久久精品国产 | 国产录像在线观看 | 韩日av一区二区 | 色av男人的天堂免费在线 | 国产中文字幕大全 | 亚洲欧美成aⅴ人在线观看 四虎在线观看 | 五月婷婷在线视频观看 | 成人97人人超碰人人99 | 五月亚洲 | 久久婷婷网| 久久午夜国产 | 免费在线观看av片 | 久久精品国产精品亚洲 | 亚洲国产精品99久久久久久久久 | 久久久久国产精品免费 | 欧美男同视频网站 | 在线视频精品 | 91精品视频免费看 | 91精品国自产在线观看欧美 | 五月天国产精品 | 日韩a在线看 | 久久在线精品视频 | 久久免费视屏 | 欧美一级片免费播放 | 99久久超碰中文字幕伊人 | 国产午夜精品一区二区三区在线观看 | 亚洲黑丝少妇 | 久草在线费播放视频 | 成人av亚洲 | 在线观看日韩中文字幕 | 日本色小说视频 | 在线视频91 | 国产91免费看| 中文在线免费观看 | 免费亚洲视频在线观看 | 亚洲激情在线 | 在线免费观看黄色小说 | 色吊丝在线永久观看最新版本 | 欧美日韩精品在线 | 超碰在线91 | 在线观看国产成人av片 | 一区二区三区电影大全 | 久久婷婷精品 | 97国产精品亚洲精品 | 91免费在线看片 | 四虎在线免费观看视频 | 特级西西人体444是什么意思 | 福利久久久 | 国产在线专区 | 四虎视频 | 狠狠色丁香久久婷婷综 | 色.com| 婷婷色在线 | 99久久99久久精品国产片果冰 | 国内精品久久天天躁人人爽 | 亚洲高清在线 | 国产精品你懂的在线观看 | 天天爽夜夜爽人人爽一区二区 | 日韩,精品电影 | 免费在线观看av电影 | 久久不卡av | 日韩av网址在线 | 91插插视频| 黄色一集片 | 伊人电影在线观看 | 久久看免费视频 | 国产成人一区二区三区影院在线 | 8x成人在线 | 美女福利视频一区二区 | 99re亚洲国产精品 | 久久久福利视频 | 亚洲精品视频www | 99免费在线视频观看 | 免费在线观看av不卡 | 黄色h在线观看 | 成人中文字幕在线观看 | 蜜臀av夜夜澡人人爽人人桃色 | 九九视频精品免费 | 亚洲精品www久久久 www国产精品com | 狠狠激情中文字幕 | 91精品啪在线观看国产 | 国产专区精品 | 成人蜜桃网 | 久久视频这里只有精品 | a亚洲视频 | 国产a级免费 | 九九热有精品 | 四虎国产精品免费 | 成人黄色大片 | 99精品乱码国产在线观看 | 久草在线网址 | 久久精品国产免费看久久精品 | 国产精品精品国产 | 日韩在线观看电影 | 日韩在线免费视频观看 | 女人高潮一级片 | 日韩精品视频免费专区在线播放 | 在线性视频日韩欧美 | 日日夜夜亚洲 | 日韩一区二区三区高清免费看看 | 国产麻豆精品久久一二三 | 精品一二三区 | 亚洲成人av在线播放 | 日日婷婷夜日日天干 | 亚洲国产精品成人精品 | 久久久久久久久久久久av | 精品在线一区二区三区 | 日韩视频中文字幕在线观看 | 狠狠色丁香久久婷婷综合丁香 | 欧美日本不卡视频 | 亚洲国产大片 | 国产香蕉视频在线观看 | 欧美日韩一区二区三区视频 | 欧美日韩国产页 | 色婷婷婷| 日韩欧美观看 | 久久久久二区 | 精品在线观看免费 | 欧美少妇xxx | 国产精品久一 | 精品久久久99 | 免费看的黄色片 | 亚洲伊人婷婷 | 美女免费视频一区 | 欧美伦理一区 | 午夜色场| 成年人免费看片 | 97电影在线 | 国产欧美中文字幕 | 日本精品一 | 97看片吧| 91久久久久久久 | 久久免费av电影 | 夜夜躁日日躁狠狠久久88av | 狠狠躁夜夜躁人人爽超碰91 | 精品亚洲免费 | 欧美日韩视频一区二区三区 | 日本韩国精品一区二区在线观看 | 2019中文最近的2019中文在线 | 久久久亚洲国产精品麻豆综合天堂 | 色婷婷亚洲 | 国产精品一区二区美女视频免费看 | 一级黄色免费网站 | 国产又粗又猛又色 | 日韩精品最新在线观看 | 日日摸日日添夜夜爽97 | 在线观看aa | 综合久久久久久久久 | 色婷婷狠 | 91黄色影视 | 开心色激情网 | 亚洲国产精品99久久久久久久久 | 欧美黑人性爽 | 国产一卡久久电影永久 | 成人av电影免费在线播放 | 中文字幕资源在线观看 | 精品中文字幕在线播放 | 久久久久成人精品 | 精品久久电影 | 日韩欧美xxx | 青青河边草免费视频 | 99这里只有| 国产成人综合在线观看 | 成人h视频在线播放 | av在线免费观看网站 | 久久新视频 | 97视频免费在线观看 | 在线免费观看国产 | 久草在线一免费新视频 | 国产精品自产拍在线观看中文 | 亚洲激情精品 | 91精品国产自产在线观看 | 干天天 | 亚洲视频综合在线 | 成人午夜精品 | 国产又粗又猛又黄 | 亚洲激情在线 | 国产在线更新 | 91九色在线观看 | 91亚洲精品久久久蜜桃 | 亚洲黄网站 | 中文字幕在线免费看线人 | 久久国内精品 | 日韩av影片在线观看 | 丁香婷婷激情五月 | 精品国产欧美一区二区三区不卡 | 午夜在线看| 一级黄色片毛片 | 欧美一级特黄高清视频 | 免费视频一二三 | 国产高清久久 | 亚洲成人av电影 | 国产精品99久久久久人中文网介绍 | 久久久久国产精品免费免费搜索 | 国产成人精品一区二区在线 | 丝袜+亚洲+另类+欧美+变态 | 天天爱天天射 | 在线观看亚洲电影 | aaa日本高清在线播放免费观看 | 久久99精品国产一区二区三区 | 国产色拍拍拍拍在线精品 | 欧美一二三视频 | 99久久久久国产精品免费 | 玖玖视频 | 久久精品爱视频 | 久久深夜福利免费观看 | 永久av免费在线观看 | 黄色精品国产 | 日韩中文字幕免费在线观看 | 99热999| 成人av在线直播 | 亚洲精品1234区 | 三级小视频在线观看 | 97激情影院 | 不卡视频在线看 | 探花视频在线版播放免费观看 | 久久国产精品99久久久久 | 欧美韩国日本在线观看 | 亚洲人在线视频 | 一区二区三区免费在线 | 亚洲激情五月 | 国内精品久久久久影院一蜜桃 | 精品亚洲一区二区三区 | 热久久最新地址 | 黄色小说免费观看 | 婷婷在线播放 | 久久99久国产精品黄毛片入口 | 日韩在线国产精品 | 人人玩人人添人人澡97 | 在线你懂| 毛片网站免费在线观看 | 中文字幕在线播放日韩 | 国产成人精品亚洲a | 开心激情网五月天 | 啪啪免费试看 | 美女视频黄在线观看 | 96av视频 | 一区二区精品国产 | 色综合天天综合在线视频 | 久草在线视频首页 | 在线中文字幕电影 | av色一区| 亚洲视频综合在线 | 丁香五香天综合情 | 激情丁香久久 | 激情深爱 | 日日夜夜免费精品视频 | 亚洲在线视频观看 | 中文字幕电影在线 | 国产99在线 | 久久视频网 | 久久久久久久精 | 中文字幕在线一区二区三区 | 日韩精品一卡 | 在线成人欧美 | 亚洲国内在线 | 人人舔人人 | 欧美日韩视频在线观看免费 | av在线影片| 日韩专区中文字幕 | 精品一区二区三区香蕉蜜桃 | 久久天天躁狠狠躁夜夜不卡公司 | 久久成人高清 | 国产精品久久久久久久午夜片 | 久久精品99久久久久久2456 | 国产一级视频在线 | 欧洲精品视频一区 | 在线观看免费国产小视频 | 搡bbbb搡bbb视频 | 成人免费视频网 | 激情开心色 | 久久草在线视频国产 | 久久久久久久久久免费 | 久草视频免费 | 99免费精品视频 | 日韩网站在线看片你懂的 | 国产色在线 | 成人性生活大片 | 看片在线亚洲 | 成人久久18免费 | 99在线热播精品免费 | 午夜av色| 久久公开视频 | 91久久久久久久一区二区 | 国产成人三级在线 | 国产日韩中文字幕 | a视频免费在线观看 | 日韩影片在线观看 | 米奇狠狠狠888 | 国产亚洲精品久久久久动 | 国产精品久久久久久久免费大片 | 91视频免费视频 | 中文字幕在线观看一区二区 | 国产精品毛片一区二区三区 | 亚洲 欧美 成人 | 精品一区二区三区久久 | 日韩视频免费在线 | 香蕉网在线观看 | 色噜噜色噜噜 | 在线看av的网址 | 国产成人精品三级 | 91麻豆精品国产91久久久久 | 久久国产精品免费看 | 波多野结衣在线视频一区 | 国产无遮挡又黄又爽馒头漫画 | 69视频网站 | 免费在线一区二区 | 久久久久久久亚洲精品 | 丁香激情综合 | 欧美三级高清 | 亚洲精品国产视频 | 国产午夜精品一区二区三区 | 97超碰总站 | av综合 日韩 | 国产成人精品一区二区三区在线 | 亚洲免费在线看 | 最新中文字幕 | 日日弄天天弄美女bbbb | 国产精品免费一区二区三区在线观看 | 99色在线 | 九九热免费在线观看 | 涩五月婷婷 | 日韩欧美在线国产 | 亚洲一区二区三区毛片 | 人人干在线观看 | 日韩久久久久久久久久久久 | 天天干天天草 | 婷婷丁香久久五月婷婷 | 日本久久久久 | 久久久91精品国产一区二区三区 | 久久97久久97精品免视看 | 日韩免费播放 | 日韩中文字幕在线不卡 | 特级毛片在线观看 | 深夜福利视频一区二区 | 香蕉成人在线视频 | 99久久激情 | 视频在线一区二区三区 | 久久国产精品久久久久 | 亚洲欧洲精品一区二区精品久久久 | 91日韩精品视频 | 中文字幕乱码亚洲精品一区 | 97在线看 | 一级黄色在线视频 | 在线电影av | 夜夜嗨av色一区二区不卡 | 日韩一区二区在线免费观看 | 天天天操天天天干 | 丁香六月激情婷婷 | 色婷婷亚洲综合 | 中文字幕亚洲精品日韩 | 天天色综合久久 | av网站免费在线 | 久久无码精品一区二区三区 | 日韩国产精品一区 | 中文字幕av在线免费 | 久久五月婷婷丁香 | 日韩理论电影在线观看 | 丁香六月伊人 | 国产精品视频一二三 | 91欧美日韩国产 | 六月激情网| 欧美一级片免费观看 | 日本一区二区高清不卡 | 久久精品99国产精品酒店日本 | 夜色资源网 | 欧美午夜性生活 | 久久久久激情电影 | 国产在线观看中文字幕 | 偷拍精品一区二区三区 | 国产中文字幕在线 | 久久亚洲精品电影 | 久久中文网| 超碰成人免费电影 | 成人小视频在线观看免费 | 国产乱老熟视频网88av | 成人性生交大片免费看中文网站 | 国产精品免费观看久久 | 成人黄色毛片视频 | 欧日韩在线视频 | 国产精品小视频网站 | 亚洲精品自拍视频在线观看 | 天天做天天看 | 91精品在线视频观看 | 久久欧洲视频 | 国产精品99久久久久 | 国产视频 亚洲视频 | 午夜视频在线观看一区二区 | 国产一区av在线 | 国产成人亚洲精品自产在线 | 日韩欧美一区二区三区视频 | 在线亚州 | 久草免费在线 | 欧美韩日在线 | 狠狠干干| 超碰久热 | 久久综合九色 | 视频二区在线视频 | 国产正在播放 | 成年人看片 | 国产精品久久久久久久99 | 久久久久久久久久久成人 | 亚洲国产精品视频 | 九九九视频在线 | 2022久久国产露脸精品国产 | 国产成人精品亚洲精品 | 久久香蕉一区 | 色综合天天狠狠 | 91九色国产视频 | 日韩高清www | 激情婷婷久久 | 中文字幕文字幕一区二区 | 日韩理论电影在线观看 | 成人黄色大片在线免费观看 | 在线高清av | 久久精品资源 | 国产一级二级在线 | 日韩精品视频久久 | 亚洲精品黄 | 黄色三级av | 午夜国产福利在线观看 | 国产麻豆精品95视频 | 成年人视频在线免费播放 | 亚洲成人一二三 | 精品久久一区二区三区 | 99精品在线视频播放 | 久热只有精品 | 最新av电影网站 | 亚洲精品国产麻豆 | 韩国av一区二区 | 精品国产伦一区二区三区观看说明 | 9色在线视频 | av丝袜在线 | 久久无码av一区二区三区电影网 | 午夜精品一区二区三区视频免费看 | 99精品偷拍视频一区二区三区 | 中文字幕av网站 | 成人黄色片免费看 | 精品无人国产偷自产在线 | 亚洲午夜大片 | 日韩精品视频第一页 | 亚洲黄色区 | 天天草天天干天天射 | 精品成人久久 | av在线收看 | 日韩成人看片 | 日本久久久久久科技有限公司 | 久久高清国产 | 久久少妇免费视频 | 四虎成人精品永久免费av九九 | 国产精品麻豆一区二区三区 | 久草在线视频资源 | 精品一区二区免费视频 | 久久av观看 | 久久久免费在线观看 | 国产午夜精品一区二区三区四区 | 99久久精品久久久久久清纯 | 久操操 | 911久久香蕉国产线看观看 | 国产精品免费大片视频 | 日本中文字幕久久 | 伊人网av| 97国产精品一区二区 | 麻豆果冻剧传媒在线播放 | 日韩欧美网址 | 91麻豆精品国产91久久久使用方法 | www.av免费| 久久久受www免费人成 | 亚洲综合在 | 亚洲蜜桃在线 | 国产精品午夜久久 | 黄免费在线观看 | 日韩啪啪小视频 | 国产 中文 日韩 欧美 | 黄色免费观看网址 | 国产精品久久久久久久电影 | 97视频在线观看免费 | 亚洲视频大全 | 欧美日韩国产二区 | 久久精品91久久久久久再现 | 日韩偷拍精品 | 欧美精品在线视频观看 | av免费电影在线 | 亚一亚二国产专区 | 欧美成人理伦片 | 91亚洲永久精品 | 日韩国产精品久久久久久亚洲 | 粉嫩一区二区三区粉嫩91 | 久久国产精品99久久久久 | 91视频一8mav | 香蕉视频国产在线 | 精品视频在线免费 | 精品嫩模福利一区二区蜜臀 | av中文字幕在线免费观看 | 成人在线播放免费观看 | 久久精品在线免费观看 | 人人爽人人搞 | 91九色最新 | 精品国产一区二区在线 | 黄色亚洲在线 | 色网免费观看 | 91麻豆免费版| 久久免费99 | 色综合久久久网 | 国产喷水在线 | 国产精品欧美精品 | 99热这里有精品 | 精品久久综合 | 亚洲aaa毛片 | 日韩在线观看一区二区三区 | 黄色avwww | 国产精品99久久久久久武松影视 | 又爽又黄又刺激的视频 | 人人搞人人干 | 丁香婷婷激情啪啪 | 综合色综合 | 亚洲精品国偷自产在线91正片 | 丁香婷婷在线观看 | 久久久免费电影 | 99爱视频在线观看 | 亚洲免费不卡 | 亚洲一区久久 | 天天综合婷婷 | 国产中文在线视频 | 夜夜嗨av色一区二区不卡 | 香蕉视频亚洲 | 亚洲国产手机在线 | 一区在线电影 | av福利在线免费观看 | 国产成人精品一区二区三区在线观看 | 欧美污在线观看 | 日韩精品视频在线观看网址 | 久艹视频在线免费观看 | 久久艹艹 | 免费看黄视频 | 福利视频 | 国产视频亚洲 | 久久一及片| 超碰av在线播放 | 高清色免费 | 精品色999 | 中文字幕在线视频一区二区三区 | 中文字幕亚洲欧美日韩 | 成年人国产精品 | 国产伦精品一区二区三区照片91 | 天天干天天操天天射 | av观看在线观看 | 欧美激情视频一区二区三区免费 | 一本一本久久a久久 | 国产剧情av在线播放 | 午夜视频免费在线观看 | 日韩在线视频免费观看 | 日韩欧美在线视频一区二区三区 | 日韩免费中文 | 麻豆影视在线观看 | 射久久| 国产精品久久久久久久久毛片 | 亚洲 欧美变态 另类 综合 | 色免费在线 | 精品国产乱码久久 | 日韩欧在线 | 天天操夜夜操天天射 | 五月天婷婷在线视频 | 国内外成人在线视频 | 色婷丁香 | 国产精品一区二区免费视频 | 亚洲精品国产精品久久99热 | 亚洲精品国产精品国自产 | 国内综合精品午夜久久资源 | 视频一区二区国产 | 日韩久久久久久 | 久久黄网站 | 国产精品门事件 | 国产 日韩 在线 亚洲 字幕 中文 | 综合色综合 | 久久精品一二三区白丝高潮 | 婷婷色视频 | 三级黄色片子 | 视频成人永久免费视频 | 安徽妇搡bbbb搡bbbb | 日日婷婷夜日日天干 | 99免费精品 | 91麻豆福利 | 天天色天天射天天操 | 久久久99精品免费观看 | 999成人网 | 成人av资源站 | 国产理论在线 | a级国产乱理论片在线观看 伊人宗合网 | 日韩激情第一页 | 午夜精品99久久免费 | 狠狠干成人综合网 | 久久综合九色欧美综合狠狠 | 精品一区二区在线观看 | av在线日韩| 国产激情免费 | 狠狠干夜夜| 精品国产区 | 91精品国产麻豆国产自产影视 | 国产精品永久在线观看 | 久久伊99综合婷婷久久伊 | 五月天开心 | 91九色九色 | 亚洲成aⅴ人片久久青草影院 | 69国产成人综合久久精品欧美 | 五月婷网站 | 黄色a视频免费 | 一区二区三区精品在线 | 91| 久久九九视频 | 一区二区三区www | 国产精品国产三级国产aⅴ无密码 | 99在线精品视频在线观看 | 在线观看视频中文字幕 | 日韩高清在线不卡 | 国产精品久久久久久一区二区三区 | 美女网站在线播放 | 亚洲精品国产拍在线 | 国产专区日韩专区 | 亚洲精品成人av在线 | 黄色com | 久久久久综合 | 精品久久久久久久久久久久久久久久 | 欧美激情综合五月色丁香 | 亚洲精品综合欧美二区变态 | 成人黄色大片 | 91激情视频在线观看 | www.久久com| 免费观看日韩av | 狠色狠色综合久久 | 欧美国产日韩一区二区三区 | 人人爽人人片 | 在线看国产日韩 | 亚洲高清国产视频 | 久久私人影院 | 亚洲免费视频在线观看 | 成人一区二区三区中文字幕 | 在线色亚洲 | 亚洲国产中文字幕 | 欧美经典久久 | 成人蜜桃网 | 99免在线观看免费视频高清 | 国产资源站| 欧美网站黄色 | 国内揄拍国产精品 | 成人在线视频在线观看 | 欧美激情另类文学 | 婷婷在线视频观看 | 免费福利片 | 人人爽人人爽人人爽 | 国产免费又粗又猛又爽 | 黄色app网站在线观看 | 肉色欧美久久久久久久免费看 | 日韩中文在线观看 | 国产无遮挡又黄又爽在线观看 | 久久免费的精品国产v∧ | 亚洲永久在线 | aⅴ视频在线| 国产高清成人在线 | 亚洲天堂网在线视频 | 高清国产午夜精品久久久久久 | 亚洲精品啊啊啊 | 中文字幕国产视频 | 四虎成人精品永久免费av | 免费观看黄 | 91精品在线视频 | 日韩中字在线 | 伊人久久精品久久亚洲一区 | 成人av免费在线播放 | 综合中文字幕 | 国产午夜精品一区二区三区四区 | 免费国产视频 | 国产字幕在线播放 | 91九色蝌蚪视频在线 | 国产精品毛片一区视频播不卡 | av在线网站免费观看 | 夜夜操天天操 | 国产亚洲综合精品 | 久久久影视 | 亚洲精品99久久久久中文字幕 | 国产成人一区二区三区在线观看 | 麻豆精品在线视频 | 91在线看 | 韩国精品福利一区二区三区 | 日本韩国精品在线 | 国模精品一区二区三区 | 黄色一级动作片 | 免费视频18| 亚洲精品在线看 | 国产小视频网站 | 亚洲在线高清 | 欧美日韩精品网站 | 国产精品久久麻豆 | 久久久久久久久久久国产精品 | 国产高清av| 国产精品毛片一区二区在线 | av中文字幕不卡 | 天天插天天射 | 夜夜高潮夜夜爽国产伦精品 | 亚洲精品日韩一区二区电影 | 国产精品成人自拍 | 国产色在线,com | 欧美一级大片在线观看 | 天天人人 | 一区 二区电影免费在线观看 | 亚洲欧美在线视频免费 | 国语对白少妇爽91 | 在线精品国产 | 91精品啪 | 中文字幕在线播放日韩 | 特级黄录像视频 | 香蕉日日 | 丁香九月激情综合 | 91久久人澡人人添人人爽欧美 | 亚洲一级片| 毛片基地黄久久久久久天堂 | 国产精品日韩精品 | 国产精品一区二区av日韩在线 |