日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

数据探索

發布時間:2023/12/15 编程问答 46 豆豆
生活随笔 收集整理的這篇文章主要介紹了 数据探索 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

** 數據質量分析 **

是數據預處理的前提,是數據挖掘分析結論有效性和準確性的基礎,其主要任務 ** 是檢查原始數據中是否存在臟數據, ** 臟數據包括:

缺失值

異常值

不一致的值

重復數據及含有特殊符號(如 # 、¥、 * )的數據

本小節將主要對數據中的缺失值、異常值和一致性進行分析。

** 缺失值統計分析 **

統計 ** 缺失值的變量個數 **

統計每個變量 ** 的未缺失數 **

統計變量的 ** 缺失數及缺失率 **

** 異常值統計分析 - 箱型圖代碼 **

異常值分析是檢驗數據是否有錄入 ** 錯誤以及含有不合常理的數據 ** 。

異常值是指樣本中的個別值,其數值明顯偏離其余的觀測值。異常值也稱為離群點,異常值的分析也稱為離群點的分析。

異常值分析方法主要有:簡單統計量分析、 3 原則、箱型圖分析。 ****

_
_ ** import ** pandas ** as ** pd
data = pd.read_excel( ** ‘…/data/catering_sale.xls’ ** , index_col = **
u’日期’ ** ) _ #讀取數據,指定“日期”列為索引列

_ ** import ** matplotlib.pyplot ** as ** plt _ #導入圖像庫
_ plt.rcParams[ ** ‘font.sans-serif’ ** ] = [ ** ‘SimHei’ ** ] _
#用來正常顯示中文標簽
_ plt.rcParams[ ** ‘axes.unicode_minus’ ** ] = ** False ** _ #用來正常顯示負號

_ plt.figure() _ #建立圖像
_ p = data.boxplot( return_type = ** ‘dict’ ** ) _
#p[‘fliers’][0].get不會報錯
#p = data.boxplot() #畫箱線圖,直接使用pd的DataFrame的方法
_ x = p[ ** ‘fliers’ ** ][ 0 ].get_xdata() _ # 'flies’即為異常值的標簽
_ y = p[ ** ‘fliers’ ** ][ 0 ]. get_ydata ()
y.sort() _ #從小到大排序,該方法直接改變原對象

#用annotate添加注釋
#其中有些相近的點,注解會出現重疊,難以看清,需要一些技巧來控制。
#以下參數都是經過調試的,需要具體問題具體調試。
_ ** for ** i ** in ** range ( len (x)):
** if ** i> 0 :
plt.annotate(y[i], xy = (x[i],y[i]), xytext =(x[i]+ 0.05 - 0.8
/(y[i]-y[i- 1 ]),y[i]))
** else ** :
plt.annotate(y[i], xy = (x[i],y[i]), xytext =(x[i]+ 0.08 ,y[i]))
plt.show() _ #展示箱線圖 _

_ _

** 一致性分析 **

數據不一致性是指數據的矛盾性、不相容性。直接對不一致的數據進行挖掘,可能會產生與實際相違背的挖掘結果。

在數據挖掘過程中,不一致數據的產生主要發生在數據集成的過程中,可能是由于被挖掘數據是來自于從不同的數據源、重復存放的數據未能進行一致性地更新造成的,比如兩張表中都存儲了用戶的地址,在用戶的地址發生改變時,如果只更新了一張表中的數據,那么這兩張表中就有了不一致的數據。

** 數據特征分析 **

一般可通過繪制圖表、計算某些特征量等手段進行數據的特征分析。

這里主要介紹的特征方法有:

** 分布分析 - 統計函數 describe **

分布分析能揭示數據的分布特征和分布類型,便于發現某些特大或特小的可疑值。

對于定性分類數據,可用餅圖和條形圖直觀地顯示分布情況。

對于定量變量而言,欲了解其分布形式,是對稱的、還是非對稱的,可做出頻率分布表、繪制頻率分布直方圖、繪制莖葉圖進行直觀地分析;

定量變量做頻率分布分析時選擇 “組數”和“組寬”是主要的問題,一般按照以下步驟:

求極差 2 決定組距與組數 3 決定分點 4 列出頻率分布表 5 繪制頻率分布直方圖

1 各組之間必須是相互排斥的

2 各組必須將所有的數據包含在內

3 各組的組寬最好相等 _
_ catering_sale = ** ‘…/data/catering_sale.xls’ ** _ #餐飲數據
_ data = pd.read_excel(catering_sale, index_col = ** u’日期’ ** ) _
#讀取數據,指定“日期”列為索引列
_ data = data[(data[ ** u’銷量’ ** ] > 400 )&(data[ ** u’銷量’ ** ] < 5000
)] _ #過濾異常數據
_ statistics = data.describe() _ #保存基本統計量

_ statistics.loc[ ** ‘range’ ** ] = statistics.loc[ ** ‘max’ **
]-statistics.loc[ ** ‘min’ ** ] _ #極差
_ statistics.loc[ ** ‘var’ ** ] = statistics.loc[ ** ‘std’ **
]/statistics.loc[ ** ‘mean’ ** ] _ #變異系數
_ statistics.loc[ ** ‘dis’ ** ] = statistics.loc[ ** ‘75%’ **
]-statistics.loc[ ** ‘25%’ ** ] _ #四分位數間距
_ print (statistics)

** 對比分析 **

對比分析是指把兩個相互聯系的指標數據進行比較,從數量上展示和說明研究對象規模的大小,水平的高低,速度的快慢,以及各種關系是否協調。特別適用于指標間的橫縱向比較、時間序列的比較分析。在對比分析中,選擇合適的對比標準是十分關鍵的步驟,選擇得合適,才能做出客觀的評價,選擇不合適,評價可能得出錯誤的結論。

** 對比分析主要有以下兩種形式: **

第一種 : 絕對數比較

第二種 : 相對數比較

  • 結構相對數 4) 強度相對數

  • 比例相對數 5) 計劃完成程度相對數

  • 比較相對數 6) 動態相對數

  • ** 統計量分析 **

    用統計指標對定量數據進行統計描述,常從集中趨勢和離中趨勢兩個方面進行分析。

    平均水平的指標是對個體集中趨勢的度量,使用最廣泛的是均值和中位數;反映變異程度的指標則是對個體離開平均水平的度量,使用較廣泛的是標準差(方差)、四分位間距。

    集中趨勢度量主要有:均值、中位數、眾數

    離中趨勢度量主要有:極差、標準差、變異系數

    ** 周期性分析 **

    周期性分析是探索某個變量是否隨著時間變化而呈現出某種周期變化趨勢。周期性趨勢相對較長的有年度周期性趨勢、季節性周期趨勢,相對較短的一般有月度周期性趨勢、周度周期性趨勢,甚至更短的天、小時周期性趨勢。

    如在做某用電單位用電量趨勢預測過程中,可以先分析該用電單位日用電量的時序圖,來直觀地估計其用電量變化趨勢。

    ** 貢獻度分析 - 帕累托分析 **

    貢獻度分析又稱帕累托分析,帕累托法則又稱 20/80 定律。同樣的投入放在不同的地方會產生不同的效益。比如對一個公司來講, 80% 的利潤常常來自于
    20% 最暢銷的產品;而其他 80% 的產品只產生了 20% 的利潤。貢獻度分析要求我們抓住問題的重點,找到那最有效的 20%
    的熱銷產品、渠道或者銷售人員,在最有效的 20% 上投入更多資源,盡量減少浪費在 80% 低效的地方。

    ** 菜品盈利數據 帕累托圖 **

    _
    #初始化參數
    _ dish_profit = ** ‘…/data/catering_dish_profit.xls’ ** _ #餐飲菜品盈利數據
    _ data = pd.read_excel(dish_profit, index_col = ** u’菜品名’ ** )
    data = data[ ** u’盈利’ ** ].copy() _
    _ plt.figure()
    data.plot( kind = ** ‘bar’ ** )
    plt.ylabel( ** u’盈利(元)’ ** )
    p = 1.0 data.cumsum()/data.sum()
    p.plot( color = ** ‘r’ ** , secondary_y = ** True ** , style = **
    ‘-o’ ** , linewidth = 2 ) _ #secondary_y數軸說明在右邊
    _ plt.annotate( format (p[ 6 ], ** ‘.4%’ ** ), xy = ( 6 , p[ 6 ]),
    xytext =( 6 * 0.9 , p[ 6 ] 0.9 ), arrowprops = dict (
    arrowstyle = ** “->” ** , connectionstyle = ** “arc3,rad=.2” ** )) _
    #添加注釋,即85%處的標記。這里包括了指定箭頭樣式。
    _ plt.ylabel( ** u’盈利(比例)’ ** )
    plt.show()

    _ #小知識cumsum
    _ a = np.array([[ 1 , 2 , 3 ], [ 4 , 5 , 6 ]])
    np.cumsum(a, axis = 0 ) _ # sum over rows for each of the 3 columns
    _ np.cumsum(a, axis = 1 ) _ # sum over rows for each of the 3 行 _

    _ 就餐飲企業來講,可以重點改善盈利最高的 80%的菜品,或者重點發展綜合影響最高的80%的部門。這種結果可以通過帕累托分析直觀的呈現出來,如下圖: _

    ** 相關性分析代碼 corr **

    分析連續變量之間線性的相關程度的強弱,并用適當的統計指標表示出來的過程稱為相關分析。

    相關性分析方法主要有:

    直接繪制散點圖 2 繪制散點圖矩陣 3 計算相關系數(比較常用的如 Pearson 相關系數、 Spearman 秩相關系數和判定系數。)

    _
    _ catering_sale = ** ‘…/data/catering_sale_all.xls’ ** _ #餐飲數據,含有其他屬性
    _ data = pd.read_excel(catering_sale, index_col = ** u’日期’ ** ) _
    #讀取數據,指定“日期”列為索引列
    _ data .corr() _ #相關系數矩陣,即給出了任意兩款菜式之間的相關系數
    _ data .corr()[ ** u’百合醬蒸鳳爪’ ** ] _ #只顯示“百合醬蒸鳳爪”與其他菜式的相關系數
    _ data [ ** u’百合醬蒸鳳爪’ ** ].corr( data [ ** u’翡翠蒸香茜餃’ ** ]) _
    #計算“鳳爪”與“翡翠蒸香茜餃”的相關系數 _

    ** 統計特征函數 **

    Mean () Geomean ()幾何平均數, Var , std , corr , cov 。 Moment 中心距

    第4章- ** 數據預處理 **

    一、 ** 數據清洗 **

    數據清洗主要是刪除原始數據集中的無關數據、重復數據,平滑噪聲數據,處理缺失值、異常值等。

    **1 刪除無關重復值 **
    **2 平滑噪聲 **
    **3 異常值處理 **

    (1) 刪除有異常值的記錄 (2) 視為缺失值 (3) 平均值修正 (4) 不處理
    要分析異常值的原因,再決定取舍。

    **4 缺失值處理 **

    方法可分為三類:刪除記錄、數據插補和不處理。

    常用的數據插補方法:均值 / 中位數 / 眾數,固定值,最近鄰插補,回歸方法,插值

    插值方法:有 Hermite 插值、分段插值、樣條插值法,而最主要的有拉格朗日插值法和牛頓插值法。

    ** 拉格朗日插值法 代碼 ployinterp_column **

    拉格朗日插值法可以找到一個 [ _ 多項式 _

    ](https://baike.baidu.com/item/%E5%A4%9A%E9%A1%B9%E5%BC%8F)
    ,其恰好在各個觀測的點取到觀測到的值。這樣的多項式稱為 ** 拉格朗日(插值)多項式 ** _
    _ ** from ** scipy.interpolate ** import ** lagrange _ #導入拉格朗日插值函數
    _ inputfile = ** ‘…/data/catering_sale.xls’ ** _ #銷量數據路徑
    _ outputfile = ** ‘…/tmp/sales.xls’ ** _ #輸出數據路徑
    _ data = pd.read_excel(inputfile) _ #讀入數據
    _ data[ ** u’銷量’ ** ][(data[ ** u’銷量’ ** ] < 400 ) | (data[ ** u’銷量’ **
    ] > 5000 )] = ** None ** _ #過濾異常值,將其變為空值

    #自定義列向量插值函數
    #s為列向量,n為被插值的位置,k為取前后的數據個數,默認為5
    _ ** def ** ployinterp_column(s, n, k= 5 ):
    y = s[ list ( range (n-k, n)) + list ( range (n+ 1 , n+ 1 +k))] _
    #取數
    _ y = y[y.notnull()] _ #剔除空值
    _ ** return ** lagrange(y.index, list (y))(n) _ #插值并返回插值結果
    #逐個元素判斷是否需要插值
    _ ** for ** i ** in ** data.columns:
    ** for ** j ** in ** range ( len (data)):
    ** if ** (data[i].isnull())[j]: _ #如果為空即插值。
    _ data[i][j] = ployinterp_column(data[i], j)

    data.to_excel(outputfile) _ #輸出結果,寫入文件 _

    二、 ** 數據集成 : 實體識別,冗余屬性識別 **

    將多個數據源放在一個統一的數據倉庫中。

    要考慮實體識別問題和屬性冗余問題,從而把源數據在最低層上加以轉換、提煉和集成。

    **
  • 實體識別 **
  • 實體識別的任務是檢測和解決同名異義、異名同義、單位不統一的沖突。如:

    ** 同名異義: ** 數據源 A 中的屬性 ID 和數據源 B 中的屬性 ID 分別描述的是菜品編號和訂單編號,即描述的是不同的實體。

    ** 異名同義: ** 數據源 A 中的 sales_dt 和數據源 B 中的 sales_date 都是是描述銷售日期的,即 A.
    sales_dt= B. sales_date 。

    ** 單位不統一 ** :描述同一個實體分別用的是國際單位和中國傳統的計量單位。

    **
  • 冗余屬性識別 **
  • 數據集成往往導致數據冗余,如: ** 同一屬性多次出現 \ 同一屬性命名不一致導致重復 **

    不同源數據的 ** 仔細整合能減少甚至避免數據冗余與不一致 ** ,以提高數據挖掘的速度和質量。對于冗余屬性要先分析檢測到后再將其刪除。

    有些冗余屬性可以用相關分析檢測到。給定兩個數值型的屬性 A 和 B ,根據其屬性值,可以用相關系數度量一個屬性在多大程度上蘊含另一個屬性。

    一、 ** 數據變換 :簡單函數變換 , 規范化,離散化 **

    主要是對數據進行規范化的操作,將數據轉換成 “適當的”格式,以適用于挖掘任務及算法的需要。

    **1. 簡單函數變換 **

    簡單函數變換就是對原始數據進行某些數學函數變換,常用的函數變換包括平方、開方、對數、差分運算等

    用來將不具有正太分布的數據變換成具有正太性的數據。
    時間序列分析中,對數變換或者差分運算可以將非平穩序列轉換為平穩序列

    **
  • 規范化 **
  • 數據標準化(歸一化)處理是數據挖掘的一項基礎工作,不同評價指標往往具有不同的量綱和量綱單位,數值間的差別可能很大
    消除指標間量綱影響

    ** 最小 - 最大規范化: ** 也稱為離差標準化是對原始數據的線性變換,使結果值映射到 [0,1] 之間

    ** 零 - 均值規范化 : ** 也叫標準差標準化,經過處理的數據的平均數為 0 標準差為 1

    ** 小數定標規范化 : ** 通過移動屬性值的小數位數,將屬性值映射到 [-1 , 1] 之間,移動的小數位數取決于屬性值絕對值的最大值。

    datafile = ** ‘…/data/normalization_data.xls’ ** _ #參數初始化
    _ data = pd.read_excel( datafile , header = ** None ** ) _ #讀取數據

    _ (data - data.min())/(data.max() - data.min()) _ #最小-最大規范化
    _ (data - data.mean())/data.std() _ #零-均值規范化 , _ data.mean( axis = 0 )
    按照列

    _
    _ data/ 10 **np.ceil(np.log10(data.abs().max())) _ #小數定標規范化 _

    _ _

    1. ** 連續屬性離散化 **

    一些數據挖掘算法,特別是某些分類算法,要求數據是分類屬性形式,如 ID3 算法、 Apriori 算法等。這樣,常常需要將連續屬性變換成 **
    分類屬性, ** 即連續屬性離散化。

    離散化性涉及 ** 兩個子任務 ** : 1 需要多少個分類變量 2 確定如何將連續屬性值映射到這些分類值。

    常用的離散化方法
    (1)等寬法
    (2)等頻法
    (3)基于聚類分析的方法

    _ #數據規范化:離散化cut,KMeans
    _ datafile = ** ‘…/data/discretization_data.xls’ ** _ #參數初始化
    _ data = pd.read_excel(datafile) _ #讀取數據
    _ data = data[ ** u’肝氣郁結證型系數’ ** ].copy()
    k = 4
    _ # 等寬離散化,各個類比依次命名為0,1,2,3
    _ d1 = pd.cut(data, k, labels = range (k))
    _ #等頻率離散化
    _ w = [ 1.0 i/k ** for ** i ** in ** range (k+ 1 )]
    w = data.describe( percentiles = w)[ 4 : 4 +k+ 1 ] _
    #使用describe函數自動計算分位數
    _ w[ 0 ] = w[ 0 ]( 1 - 1e-10 )
    d2 = pd.cut(data, w, labels = range (k))
    _ #聚類分類
    _ ** from ** sklearn.cluster ** import ** KMeans _ #引入KMeans
    _ kmodel = KMeans( n_clusters = k, n_jobs = 4 ) _
    #建立模型,n_jobs是并行數,一般等于CPU數較好
    _ kmodel.fit(data.reshape(( len (data), 1 ))) _ #訓練模型
    _ c = pd.DataFrame(kmodel.cluster_centers_).sort_values( by =[ 0 ]) _
    #.sort()#輸出聚類中心,并且排序(默認是隨機序的)
    _ w = pd.rolling_mean(c, 2 ).iloc[ 1 :] _ #相鄰兩項求中點,作為邊界點
    _ w = [ 0 ] + list (w[ 0 ]) + [data.max()] _ #把首末邊界點加上
    _ d3 = pd.cut(data, w, labels = range (k))

    ** def ** cluster_plot(d, k): _ #自定義作圖函數來顯示聚類結果
    _ ** import ** matplotlib.pyplot ** as ** plt
    plt.rcParams[ ** ‘font.sans-serif’ ** ] = [ ** ‘SimHei’ ** ] _
    #用來正常顯示中文標簽
    _ plt.rcParams[ ** ‘axes.unicode_minus’ ** ] = ** False ** _ #用來正常顯示負號

    _ plt.figure( figsize = ( 8 , 3 ))
    ** for ** j ** in ** range ( 0 , k):
    plt.plot(data[dj], [j ** for ** i ** in ** d[dj]], ** ‘o’ ** )

    plt.ylim(- 0.5 , k- 0.5 )
    ** return ** plt

    cluster_plot(d1, k).show()
    cluster_plot(d2, k).show()
    cluster_plot(d3, k).show()

    4. ** 屬性構造 - 構造新的屬性 **

    _ #新屬性構造-輸出到excel
    _ i nputfile= ** ‘…/data/electricity_data.xls’ ** _ #供入供出電量數據
    _ outputfile = ** ‘…/tmp/electricity_data.xls’ ** _ #屬性構造后數據文件
    _ data = pd.read_excel(inputfile) _ #讀入數據
    _ data[ ** u’線損率’ ** ] = (data[ ** u’供入電量’ ** ] - data[ ** u’供出電量’ **
    ])/data[ ** u’供入電量’ ** ]
    data.to_excel(outputfile, index = ** False ** ) _ #保存結果 _

    _ _

    5. ** 小波變換 代碼 **

    非平穩序列的分析手段。
    基于小波變換的特征提取方法:
    (1)基于小波變換的多尺度空間能量分布特征提取法
    (2)基于小波變換的多尺度空間的模極大特征值提取法
    (3)基于小波變換的特征提取方法
    (4)基于適應性小波神經網絡的特征提取方法

    inputfile= ** ‘…/data/leleccum.mat’ ** _ #提取自Matlab的信號文件
    _ ** from ** scipy.io ** import ** loadmat _ #mat是MATLAB專用格式,需要用loadmat讀取它
    _ mat = loadmat(inputfile)
    signal = mat[ ** ‘leleccum’ ** ][ 0 ]

    ** import ** pywt _ #導入PyWavelets
    _ coeffs = pywt.wavedec(signal, ** ‘bior3.7’ ** , level = 5 )
    _ #返回結果為level+1個數字,第一個數組為逼近系數數組,后面的依次是細節系數數組 _

    二、 ** 數據規約 **

    數據規約是將海量數據進行規約,規約之后的數據仍接近于 ** 保持原數據的完整性,但數據量小得多。 **

    通過數據規約,可以達到:

    降低無效、錯誤數據對建模的影響,提高建模的準確性

    少量且具代表性的數據將大幅縮減數據挖掘所需的時間

    降低儲存數據的成本 。

    **
  • 屬性規約常用方法 : **
  • **1. 合并屬性 2 逐步向前選擇 3 逐步向后刪除 4 決策樹 規約 **
    **5 主成分分析降維 代碼 **

    1 數據矩陣 2 將數據矩陣中心標準化 3 求相關系數矩陣 4 求 R 的特征方程 5 確定主成分個數

    6 計算 m 個相應的單位特征向量 7 計算主成分

    inputfile = ** ‘…/data/principal_component.xls’
    ** outputfile = ** ‘…/tmp/dimention_reducted.xls’ ** _ #降維后的數據
    _ data = pd.read_excel(inputfile, header = ** None ** ) _ #讀入數據

    _ ** from ** sklearn.decomposition ** import ** PCA
    pca = PCA()
    pca.fit(data)
    pca.components_ _ #返回模型的各個特征向量
    _ pca.explained_variance_ratio_ _ #返回各個成分各自的方差百分比 _

    _ 三維 _

    pca=PCA(3)

    pca.fit(data)

    low_d=pca.transform(data)#降維

    pd.DataFrame(low_d).to_excel(outputfile)

    pca.inverse_transform(low_d)

    **2 數值規約 : 分箱,回歸,聚類,卡方檢驗,決策樹 **

    通過選擇替代的、較小的數據來減少數據量,包含有參數方法和無參數方法兩類;有參數方法使用模型評估數據,不需要存放真實數據,只需要存放參數,例如回歸、對數線性模型。

    無參數需要數據,例如直方圖、聚類、抽樣。

    ** 五、常用數據預處理函數 **

    1.interpolate:一維,高維數據插值
    f.scipy.interpolate.lagrange(x,y)
    2.unique:去除重復元素
    np.unique(D)
    D.unique( )

    ** import ** pandas ** as ** pd
    ** import ** numpy ** as ** np
    D=pd.Series([ 1 , 1 , 2 , 3 , 5 ])
    d1=D.unique()
    d2 =np.unique(D)
    print ** "d1 is: \n " ** ,d1
    print ** "d2 is: \n " ** , d2

    3.isnull/notnull:判斷空值/非空值
    4.random:生成隨機矩陣
    k x m x n維0-1之間;
    np.random.rand(k,m,n…)
    k x m x n維,正態分布;
    np.random.randn(k,m,n)
    5.PCA:主成分分析

    ** 第 5 章:挖掘建模 **

    **cmplot 混淆矩陣,看 spe , **

    _ # -- coding: utf-8 --
    _ ** def ** cm_plot(y, yp):
    ** from ** sklearn.metrics ** import ** confusion_matrix _ # 導入混淆矩陣函數
    _ cm = confusion_matrix(y, yp) _ # 混淆矩陣 _

    _
    _ ** import ** matplotlib.pyplot ** as ** plt _ # 導入作圖庫
    _ plt.matshow(cm, cmap =plt.cm.Greens) _ #
    畫混淆矩陣圖,配色風格使用cm.Greens,更多風格請參考官網。
    _ plt.colorbar() _ # 顏色標簽

    _ ** for ** x ** in ** range ( len (cm)): _ # 數據標簽
    _ ** for ** y ** in ** range ( len (cm)):
    plt.annotate(cm[x, y], xy =(x, y), horizontalalignment = ** ‘center’ **
    , verticalalignment = ** ‘center’ ** )

    plt.ylabel( ** ‘True label’ ** ) _ # 坐標軸標簽
    _ plt.xlabel( ** ‘Predicted label’ ** ) _ # 坐標軸標簽
    _ ** return ** plt

    **1 分類與預測 **

    ** 算法與模型 **

    算法:回歸分析( logistics , LDA ),決策樹,神經網絡,貝葉斯, svm ,隨機森林

    常用回歸模型:邏輯回歸,(非)線性回歸,嶺回歸,主成分回歸, logistics 回歸

    **1 、邏輯回歸 **

    _ #-- coding: utf-8 --
    #邏輯回歸 自動建模
    _ ** import ** pandas ** as ** pd

    _ #參數初始化
    _ filename = ** ‘…/data/bankloan.xls’
    ** data = pd.read_excel(filename)
    x = data.iloc[:,: 8 ].as_matrix()
    y = data.iloc[:, 8 ].as_matrix()

    ** from ** sklearn.linear_model ** import ** LogisticRegression ** as **
    LR
    ** from ** sklearn.linear_model ** import ** RandomizedLogisticRegression
    ** as ** RLR
    rlr = RLR() _ #建立隨機邏輯回歸模型,篩選變量
    _ rlr.fit(x, y) _ #訓練模型
    _ rlr.get_support() _ #獲取特征篩選結果,也可以通過.scores_方法獲取各個特征的分數
    _ print ( ** u’通過隨機邏輯回歸模型篩選特征結束。’ ** )
    print ( ** u’有效特征為:%s’ ** % ** ‘,’ **
    .join(data.columns[rlr.get_support()]))
    x = data[data.columns[rlr.get_support()]].as_matrix() _ #篩選好特征

    _ lr = LR() _ #建立邏輯貨柜模型
    _ lr.fit(x, y) _ #用篩選后的特征數據來訓練模型
    _ print ( ** u’邏輯回歸模型訓練結束。’ ** )
    print ( ** u’模型的平均正確率為:%s’ ** % lr.score(x, y)) _ #給出模型的平均正確率,本例為81.4% _

    Scikit-learn 提供了 RFE 包,用于特征消除,還提供了 RFECV 通過交叉驗證進行特征排序

    2、 ** 決策樹 ID3,C4.5 , CART **

    **ID3 決策樹 **

    ID3 算法是一種基于信息熵的決策樹分類算法,它選擇當前樣本集中具有最大信息增益值的屬性作為測試屬性選擇增益最大

    _ #-- coding: utf-8 --
    #使用ID3決策樹算法預測銷量高低
    _ ** import ** pandas ** as ** pd

    _ #參數初始化
    _ inputfile = ** ‘…/data/sales_data.xls’
    ** data = pd.read_excel(inputfile, index_col = ** u’序號’ ** ) _ #導入數據

    #數據是類別標簽,要將它轉換為數據
    #用1來表示“好”、“是”、“高”這三個屬性,用-1來表示“壞”、“否”、“低”
    _ data[data == ** u’好’ ** ] = 1
    data[data == ** u’是’ ** ] = 1
    data[data == ** u’高’ ** ] = 1
    data[data != 1 ] = - 1
    x = data.iloc[:,: 3 ].as_matrix().astype( int )
    y = data.iloc[:, 3 ].as_matrix().astype( int )

    ** from ** sklearn.tree ** import ** DecisionTreeClassifier ** as ** DTC
    dtc = DTC( criterion = ** ‘entropy’ ** ) _ #建立決策樹模型,基于信息熵
    _ dtc.fit(x, y) _ #訓練模型

    #導入相關函數,可視化決策樹。
    #導出的結果是一個dot文件,需要安裝Graphviz才能將它轉換為pdf或png等格式。
    _ ** from ** sklearn.tree ** import ** export_graphviz
    ** from ** sklearn.externals.six ** import ** StringIO
    ** with ** open ( ** “tree.dot” ** , ** ‘w’ ** ) ** as ** f:
    f = export_graphviz(dtc, feature_names = x.columns, out_file = f)

    圖 2

    **CART 決策樹模型 **

    _ #-- coding: utf-8 --
    #構建并測試CART決策樹模型

    _ ** import ** pandas ** as ** pd _ #導入數據分析庫
    _ ** from ** random ** import ** shuffle _ #導入隨機函數shuffle,用來打算數據

    _ datafile = ** ‘…/data/model.xls’ ** _ #數據名
    _ data = pd.read_excel(datafile) _ #讀取數據,數據的前三列是特征,第四列是標簽
    _ data = data.as_matrix() _ #將表格轉換為矩陣
    _ shuffle(data) _ #隨機打亂數據

    _ p = 0.8 _ #設置訓練數據比例
    _ train = data[: int ( len (data)*p),:] _ #前80%為訓練集
    _ test = data[ int ( len (data)*p):,:] _ #后20%為測試集

    #構建CART決策樹模型
    _ ** from ** sklearn.tree ** import ** DecisionTreeClassifier _ #導入決策樹模型

    _ treefile = ** ‘…/tmp/tree.pkl’ ** _ #模型輸出名字
    _ tree = DecisionTreeClassifier() _ #建立決策樹模型
    _ tree.fit(train[:,: 3 ], train[:, 3 ]) _ #訓練

    #保存模型
    _ ** from ** sklearn.externals ** import ** joblib
    joblib.dump(tree, treefile)

    ** from ** cm_plot ** import ** * _ #導入自行編寫的混淆矩陣可視化函數
    _ cm_plot(train[:, 3 ], tree.predict(train[:,: 3 ])).show() _
    #顯示混淆矩陣可視化結果
    #注意到Scikit-Learn使用predict方法直接給出預測結果。

    _ ** from ** sklearn.metrics ** import ** roc_curve _ #導入ROC曲線函數

    _ fpr, tpr, thresholds = roc_curve(test[:, 3 ], tree.predict_proba(test[:,:
    3 ])[:, 1 ], pos_label = 1 )
    plt.plot(fpr, tpr, linewidth = 2 , label = ** ‘ROC of CART’ ** ,
    color = ** ‘green’ ** ) _ #作出ROC曲線
    _ plt.xlabel( ** ‘False Positive Rate’ ** ) _ #坐標軸標簽
    _ plt.ylabel( ** ‘True Positive Rate’ ** ) _ #坐標軸標簽
    _ plt.ylim( 0 , 1.05 ) _ #邊界范圍
    _ plt.xlim( 0 , 1.05 ) _ #邊界范圍
    _ plt.legend( loc = 4 ) _ #圖例
    _ plt.show() _ #顯示作圖結果 _

    3、 ** 人工神經網絡 BP\LM\RBF\FNN\GMDH\ANFIS **

    _ #-- coding: utf-8 --
    #使用神經網絡算法預測銷量高低,用sales_data.xls
    _ ** from ** keras.models ** import ** Sequential
    ** from ** keras.layers.core ** import ** Dense, Activation

    model = Sequential() _ #建立模型
    _ model.add(Dense( 10 , input_dim = 3 )) _ #三個輸入,10個隱藏,1一個輸出
    _ model.add(Activation( ** ‘relu’ ** )) _ #用relu函數作為激活函數,能夠大幅提供準確度
    _ model.add(Dense( 1 , input_dim = 10 ))
    model.add(Activation( ** ‘sigmoid’ ** )) _ #由于是0-1輸出,用sigmoid函數作為激活函數

    _ model.compile( loss = ** ‘binary_crossentropy’ ** , optimizer = **
    ‘adam’ ** ) # class_mode = ** ‘binary’ **
    _ #編譯模型。由于我們做的是二元分類,所以我們指定損失函數為binary_crossentropy,以及模式為binary
    #另外常見的損失函數還有mean_squared_error、categorical_crossentropy等,請閱讀幫助文件。
    #求解方法我們指定用adam,還有sgd、rmsprop等可選

    _ model.fit(x, y, epochs = 1000 , batch_size = 10 ) _
    #訓練模型,學習一千次,x訓練失敗?
    _ yp = model.predict_classes(x).reshape( len (y)) _ #分類預測

    _ ** from ** cm_plot ** import ** * _ #導入自行編寫的混淆矩陣可視化函數
    _ cm_plot(y,yp).show() _ #顯示混淆矩陣可視化結果 _

    **2 聚類分析: **

    ** 劃分方法(常用: kmean 算法 , k 中心點),系統聚類,層次聚類,譜聚類,基于密度 / 網格 /

    模型的聚類,均值漂移聚類:用 scikit-learn , spicy.cluster 也有很多 **

    **kmeans 聚類算法過程: **

    1 )從 N 個樣本數據中隨機選取 K 個對象作為初始的聚類中心;

    2 )分別計算每個樣本到各個聚類中心的距離,將對象分配到距離最近的聚類中;

    3 )所有對象分配完成后,重新計算 K 個聚類的中心;

    4 )與前一次計算得到的 K 個聚類中心比較,如果聚類中心發生變化,轉 2) ,否則轉 5) ;

    5 )當質心不發生變化時停止并輸出聚類結果。

    ( ** 連續屬性: ** 度量樣本之間的相似性最常用的是歐幾里得距離、曼哈頓距離和閔可夫斯基距離, ** 文檔數據: **
    使用余弦相似性度量,先將文檔數據整理成文檔 —詞矩陣格式)

    誤差平方和 SSE

    ** import ** pandas ** as ** pd

    _ #參數初始化
    _ inputfile = ** ‘…/data/consumption_data.xls’ ** _ #銷量及其他屬性數據
    _ outputfile = ** ‘…/tmp/data_type.xls’ ** _ #保存結果的文件名
    _ k = 3 _ #聚類的類別
    _ iteration = 500 _ #聚類最大循環次數
    _ data = pd.read_excel(inputfile, index_col = ** ‘Id’ ** ) _ #讀取數據
    _ data_zs = 1.0 *(data - data.mean())/data.std() _ #數據標準化

    _ ** from ** sklearn.cluster ** import ** KMeans
    ** if ** name== ** ‘main’ ** : _ #加入此行代碼即可
    _ model = KMeans( n_clusters = k, n_jobs = 4 , max_iter = iteration)
    _ #分為k類,并發數4
    _ model.fit(data_zs) _ #開始聚類, you must protect your main loop using “if
    name == ‘main’”.

    #簡單打印結果
    _ r1 = pd.Series(model.labels_).value_counts() _ #統計各個類別的數目
    _ r2 = pd.DataFrame(model.cluster_centers_) _ #找出聚類中心
    _ r = pd.concat([r2, r1], axis = 1 ) _ #橫向連接(0是縱向),得到聚類中心對應的類別下的數目
    _ r.columns = list (data.columns) + [ ** u’類別數目’ ** ] _ #重命名表頭
    _ ** print ** ?

    _ #詳細輸出原始數據及其類別
    _ r = pd.concat([data, pd.Series(model.labels_, index = data.index)], axis
    = 1 ) _ #詳細輸出每個樣本對應的類別
    _ r.columns = list (data.columns) + [ ** u’聚類類別’ ** ] _ #重命名表頭
    _ r.to_excel(outputfile) _ #保存結果 _

    ** 繪制聚類后的概率密度圖 **

    _
    _ ** def ** density_plot(data): _ #自定義作圖函數
    _ p = data.plot( kind = ** ‘kde’ ** , linewidth = 2 , subplots = **
    True ** , sharex = ** False ** )
    [p[i].set_ylabel( ** u’密度’ ** ) ** for ** i ** in ** range (k)]
    plt.legend()
    ** return ** plt

    pic_output = ** ‘…/tmp/pd_’ ** _ #概率密度圖文件名前綴
    _ ** for ** i ** in ** range (k):
    density_plot(data[r[ ** u’聚類類別’ ** ]==i]).savefig( ** u’%s%s.png’ **
    %(pic_output, i))

    ** for ** i ** in ** range ( len (data.iloc[ 0 ])): _ #逐列作圖
    _ (data.iloc[:,i]).plot( kind = ** ‘kde’ ** , linewidth = 2 , label
    =data.columns[i])

    ** 聚類后算法評價 **

    Purity 評價法:正確聚類占總數比例

    RI 評價

    F 值評價

    ** 聚類可視化 TSNE **

    _ # 接 kmeans.py _

    ** from ** sklearn.manifold ** import ** TSNE
    ** import ** matplotlib.pyplot ** as ** plt

    tsne = TSNE()
    tsne.fit_transform(data_zs) _ #進行數據降維
    _ tsne = pd.DataFrame(tsne.embedding_, index = data_zs.index) _ #轉換數據格式

    #不同類別用不同顏色和樣式繪圖
    _ d = tsne[r[ ** u’聚類類別’ ** ] == 0 ] _ #a=r[u’聚類類別’] ==
    0,dtype(‘bool’),r:oject,r.columns:Index([u’R’, u’F’, u’M’, u’聚類類別’],
    dtype=‘object’)
    _ plt.plot(d[ 0 ], d[ 1 ], ** ‘r.’ ** )
    d = tsne[r[ ** u’聚類類別’ ** ] == 1 ]
    plt.plot(d[ 0 ], d[ 1 ], ** ‘go’ ** )
    d = tsne[r[ ** u’聚類類別’ ** ] == 2 ]
    plt.plot(d[ 0 ], d[ 1 ], ** ‘b*’ ** )
    plt.show()

    **3 關聯規則 aprior,FP-TREE **

    ( 1 )關聯規則的一般形式

    支持度:項集 A 、 B 同時發生的概率

    置信度:項集 A 發生,則項集 B 也同時發生的概率

    ( 2 )最小支持度和最小置信度

    最小支持度:一個閾值,表示項目集在統計意義上的最低重要性;

    最小置信度:一個閾值表示關聯規則的最低可靠性。

    同時滿足最小支持度閾值和最小置信度閾值的規則稱作強規則。

    ** 函數文件 apirior.py **

    過程一:找出所有的頻繁項集。

    過程二:由頻繁項集產生強關聯規則 _
    _ ** def ** connect_string(x, ms):
    x = list ( map ( ** lambda ** i: sorted (i.split(ms)), x))
    l = len (x[ 0 ])
    r = []
    ** for ** i ** in ** range ( len (x)):
    ** for ** j ** in ** range (i, len (x)):
    ** if ** x[i][:l - 1 ] == x[j][:l - 1 ] ** and ** x[i][l - 1 ] !=
    x[j][l - 1 ]:
    r.append(x[i][:l - 1 ] + sorted ([x[j][l - 1 ], x[i][l - 1 ]]))
    ** return ** r

    _ # 尋找關聯規則的函數
    _ ** def ** find_rule(d, support, confidence, ms= ** u’–’ ** ):
    result = pd.DataFrame( index =[ ** ‘support’ ** , ** ‘confidence’ ** ])
    _ # 定義輸出結果

    _ support_series = 1.0 * d.sum() / len (d) _ # 支持度序列
    _ column = list (support_series[support_series > support].index) _ #
    初步根據支持度篩選
    _ k = 0

    ** while ** len (column) > 1 :
    k = k + 1
    print ( ** u’ \n 正在進行第 %s次搜索…’ ** % k)
    column = connect_string(column, ms)
    print ( ** u’數目:%s…’ ** % len (column))
    sf = ** lambda ** i: d[i].prod( axis = 1 , numeric_only = ** True **
    ) _ # 新一批支持度的計算函數

    創建連接數據,這一步耗時、耗內存最嚴重。當數據集較大時,可以考慮并行運算優化。

    _ d_2 = pd.DataFrame( list ( map (sf, column)), index =[ms.join(i) **
    for ** i ** in ** column]).T

    support_series_2 = 1.0 * d_2[[ms.join(i) ** for ** i ** in **
    column]].sum() / len (d) _ # 計算連接后的支持度
    _ column = list (support_series_2[support_series_2 > support].index) _ #
    新一輪支持度篩選
    _ support_series = support_series.append(support_series_2)
    column2 = []

    ** for ** i ** in ** column: _ #
    遍歷可能的推理,如{A,B,C}究竟是A+B–>C還是B+C–>A還是C+A–>B?
    _ i = i.split(ms)
    ** for ** j ** in ** range ( len (i)):
    column2.append(i[:j] + i[j + 1 :] + i[j:j + 1 ])

    cofidence_series = pd.Series( index =[ms.join(i) ** for ** i ** in **
    column2]) _ # 定義置信度序列

    _ ** for ** i ** in ** column2: _ # 計算置信度序列
    _ cofidence_series[ms.join(i)] = support_series[ms.join( sorted (i))] /
    support_series[ms.join(i[: len (i) - 1 ])]

    ** for ** i ** in ** cofidence_series[cofidence_series > confidence].index:
    _ # 置信度篩選
    _ result [i] = 0.0
    result [i][ ** ‘confidence’ ** ] = cofidence_series[i]
    result [i][ ** ‘support’ ** ] = support_series[ms.join( sorted
    (i.split(ms)))]

    result = result .T.sort([ ** ‘confidence’ ** , ** ‘support’ ** ],
    ascending = ** False ** ) _ # 結果整理,輸出
    _ print ( ** u’ \n 結果為: ’ ** )
    print ( result )

    ** return ** result

    ** 使用 Apriori 算法挖掘菜品訂單關聯規則 **

    _ #-- coding: utf-8 --
    #使用Apriori算法挖掘菜品訂單關聯規則
    _ ** from ** future ** import ** print_function
    ** import ** pandas ** as ** pd
    ** from ** apriori ** import ** * _ #導入自行編寫的apriori函數

    _ inputfile = ** ‘…/data/menu_orders.xls’
    ** outputfile = ** ‘…/tmp/apriori_rules.xls’ ** _ #結果文件
    _ data = pd.read_excel(inputfile, header = ** None ** )

    **

    ** 代碼好 - 轉換原始數據至 0-1矩陣…’ ) ? 有問題

    ct = lambda x : pd.Series( 1 , index = x[pd.notnull(x)]) _
    #轉換0-1矩陣的過渡函數
    _ b = map (ct, data.as_matrix()) _ #用map方式執行
    _ data = pd.DataFrame( list (b)).fillna( 0 ) _ #實現矩陣轉換,空值用0填充
    _ print ( u’ \n 轉換完畢。 ’ )
    del b _ #刪除中間變量b,節省內存

    _ support = 0.2 _ #最小支持度
    _ confidence = 0.5 _ #最小置信度
    _ ms = ** ‘—’ ** _ #連接符,默認’–’,用來區分不同元素,如A–B。需要保證原始表格中不含有該字符

    _ find_rule(data, support, confidence, ms).to_excel(outputfile) _ #保存結果 _

    **4 時序模式: **

    常見的時間序列模型 平滑,趨勢擬合法,組合(加法,乘法)、 AR 、 MA,ARMA,ARIMA,ARCH,GARCH ,將重點介紹 AR
    模型、 MA 模型、 ARMA 模型和 ARIMA 模型。

    ** 時間序列的預處理(隨機 + 平穩) **

    拿到一個觀察值序列后, ** 首先要對它的 純隨機性和平穩性 進行檢驗,這兩個重要的檢驗稱為序列的預處理。 **
    根據檢驗結果可以將序列分為不同的類型,對不同類型的序列會采取不同的分析方法。

    對于純隨機序列,又叫白噪聲序列 ,就意味著序列的各項之間沒有任何相關關系,序列在進行完全無序的隨機波動,可以終止對該序列的分析。

    對于平穩非白噪聲序列, 它的均值和方差是常數,現已有一套非常成熟的平穩序列的建模方法。通常是建立一個線性模型來擬合該序列的發展,借此提取該序列的有用信息。
    ARMA 模型是最常用的平穩序列擬合模型;

    對于非平穩序列, 由于它的均值和方差不穩定,處理方法一般是將其轉變為平穩序列,這樣就可以應用有關平穩時間序列的分析方法,如建立 ARMA
    模型來進行相應得研究。如果一個時間序列經差分運算后具有平穩性,成該序列為差分平穩序列,可以使用 ARIMA 模型進行分析。

    1 平穩性檢驗

    對序列的平穩性的檢驗有兩種檢驗方法,一種是 ** 根據時序圖和自相關圖的特征做出判斷的圖 **
    檢驗,該方法操作簡單、應用廣泛,缺點是帶有主觀性;另一種是構造檢驗統計量進行的方法,目前最常用的方法是 ** 單位根檢驗 **

    ** ( 1 )時序圖檢驗:如果有明顯的趨勢性或者周期性那它通常不是平穩序列。 **

    ( 2 )自相關圖檢驗 **_ (常用) _ **

    平穩序列具有短期相關性,隨著延遲期數的增加,平穩序列的自相關系數 會比較快的衰減趨向于零,并在零附近隨機波動,而非平穩序列的自相關系數衰減的速度比較慢

    ( 3 )單位根檢驗是指檢驗序列中是否存在單位根,因為存在單位根就是非平穩時間序列了。 p 值顯著大于 0.05=== 非平穩(不是白噪聲)

    2 純隨機性檢驗

    純隨機性檢驗也稱 **_ 白噪聲檢驗 _ , ** 一般是構造檢驗統計量來檢驗序列的純隨機性,常用的檢驗統計量有 Q 統計量、 LB
    統計量,計算出對應的 p 值,如果 p 值顯著大于顯著性水平 , 則表示該序列不能拒絕純隨機的原假設,可以停止對該序列的分析。

    ** 平穩時間序列分析 ARMA **

    ARMA 模型的全稱是自回歸移動平均模型,它是目前最常用的擬合平穩序列的模型。

    ARMA 模型又可以細分為 AR 模型、 MA 模型和 ARMA 模型三大類。都可以看作是多元線性回歸模型。

    下面將分別介紹 AR 模型、 MA 模型和 ARMA 模型三大模型。

    ** 平穩時間序列的 ARMA 模型建模步驟。 **

    某個時間序列經過 預處理,被判定為平穩非白噪聲序列,就可以利用 ARMA 模型進行建模。

    由 AR 模型、 MA 模型和 ARMA 模型的自相關系數和偏自相關系數的性質,選擇出合適的模型。

    **AR 、 MA 和 ARMA 模型自相關系數和偏自相關系數的性質如下: **

    AR模型:自相關系數拖尾,偏自相關系數截尾;

    MA模型:自相關系數截尾,偏自相關函數拖尾;

    ARMA模型:自相關函數和偏自相關函數均拖尾。

    ** 非平穩時間序列分析 ARIMA **

    對非平穩時間序列的分析方法可以分為確定性因素分解的時序分析和隨機時序分析兩大類 。

    ** 確定性因素分解 ** 的方法把所有序列的變化都歸結為四個因素(長期趨勢、季節變動、循環變動和隨機波動)的綜合影響。可以建立加法模型和乘法模型等。

    根據時間序列的不同特點, ** 隨機時序分析 ** 可以建立的模型有 ARIMA 模型、殘差自回歸模型、季節模型、異方差模型等。

    1、p 階差分 : 相距一期的兩個序 列值之間的減法運算稱為 1 階差分運算;

    2、k 步差分 : 相距 k 期的兩個序列值之間的減法運算稱為 k 步差分運算。

    3、 差分運算具有強大的確定性信息提取能力,許多非平穩序列差分后會顯示出平穩序列的性質,這時稱這個非平穩序列為差分平穩序列。

    4、 對差分平穩序列可以使用 ARMA模型進行擬合。

    5、ARIMA模型的實質就是差分運算與ARMA模型的組合,掌握了ARMA模型的建模方法和步驟以后,對序列建立ARIMA模型是比較簡單的。

    ** 建模步驟: ( 代碼問題 ) **

    _ _

    ** 建模步驟 **

    ** 計算 ACF 和 PACF( 自相關圖平穩性檢驗 + 白噪聲 **

    先計算非平穩白噪聲序列的自相關系數( ACF )和偏自相關系數( PACF )

    不平穩差分后再用 ARIMA 模型

    ** import ** pandas ** as ** pd
    _ #讀取數據,指定日期列為指標,Pandas自動將“日期”列識別為Datetime格式
    _ discfile = ** ‘…/data/arima_data.xls’
    ** forecastnum = 5 _
    _ data = pd .read_excel(discfile, index_col = ** u’日期’ ** ) _
    _ ** import ** matplotlib.pyplot ** as ** plt _
    _ data.plot()
    plt.show()

    **

    _ #自相關圖 和偏自相關圖選擇模型 _ **

    _
    _ ** from ** scipy ** import ** stats
    ** import ** matplotlibt.py p lot ** as ** plt
    ** import ** statsmodels.api ** as ** sm
    ** from ** statsmodels.graphics.api ** import ** qqplot

    fig=sm.graphic.tsa.plot_acf(dta, lags = 40 , ax =ax1)
    fig = sm.graphics.tsa.plot_pacf(dta, lags = 40 , ax =ax2)
    _ # 一階差分后的自相關圖與偏自相關圖
    _ dta = dta.diff( 1 ).dropna() _ # 注意一定要將查分后的空值去掉再取自相關系數
    _ fig = sm.graphics.tsa.plot_acf(dta, lags = 40 , ax =ax3)
    fig = sm.graphics.tsa.plot_pacf(dta, lags = 40 , ax =ax4)

    **# 平穩性檢測 # 白噪聲檢驗 **

    _
    _ ** from ** statsmodels.tsa.stattools ** import ** adfuller ** as ** ADF
    print ( ** u’原始序列的ADF檢驗結果為:’ ** , ADF(data[ ** u’銷量’ ** ]))
    _ #返回值依次為adf、pvalue、usedlag、nobs、critical values、icbest、regresults、resstore
    _ D_data=data.diff().dropna()
    D_data.columns=[ ** u’銷量差分’ ** ] _
    _ ** from ** statsmodels.stats.diagnostic ** import ** acorr_ljungbox
    print ( ** u’差分序列的白噪聲檢驗結果為:’ ** , acorr_ljungbox(D_data, lags = 1 )) _
    #返回統計量和p值

    _ ** from ** statsmodels.tsa.arima_model ** import ** ARIMA

    _ #定階
    _ pmax = int ( len (D_data)/ 10 ) _ #一般階數不超過length/10
    _ qmax = int ( len (D_data)/ 10 ) _ #一般階數不超過length/10
    _ bic_matrix = [] _ #bic矩陣
    _ ** for ** p ** in ** range (pmax+ 1 ):
    tmp = []
    ** for ** q ** in ** range (qmax+ 1 ):
    ** try ** : _ #存在部分報錯,所以用try來跳過報錯。
    _ tmp.append(ARIMA(data, (p, 1 ,q)).fit().bic)
    ** except ** :
    tmp.append( ** None ** )
    bic_matrix.append(tmp)

    bic_matrix = pd .DataFrame(bic_matrix) _ #從中可以找出最小值
    _ p,q = bic_matrix.stack().idxmin() _ #先用stack展平,然后用idxmin找出最小值位置。
    _ print ( ** u’BIC最小的p值和q值為:%s、%s’ ** %(p,q))

    **ARMA 模型識別 **

    由 AR 模型、 MA 模型和 ARMA 模型的自相關系數和偏自相關系數的性質,選擇出合適的模型。

    ** 模型定階 AIC :確定 p 和 q **

    (1) 人為識別的方法: 用相關圖像 根據 ARMA模型識別原則進行模型定階

    (2) 第二種方法:相對最優模型識別。

    計算 ARMA(p,q)當 p 和 q 均小于等于 5 的所有組合的 BIC 信息量,取其中 BIC 信息量達到最小的模型階數。ARIMA(P ,
    1,Q )

    ** 模型檢驗 **

    確定模型后,需要檢驗其殘差序列是否是白噪聲,若 ** 不是 ** ,說明,殘差中還存在有用的信息, ** 需要修改模型或者進一步提取 **
    。若其殘差不是白噪聲,重新更換 p,q 的值,重新確定

    p 值為: 0.627016 ,大于 0.05 , ** 殘差 ** 為白噪聲序列,模型通過檢驗。

    ** 模型預測 **

    只能進行短期預測

    model = ARIMA(data, (p, 1 ,q)).fit() _ #建立ARIMA(0, 1, 1)模型
    _ model .summary2() _ #給出一份模型報告
    _ model .forecast( 5 )

    ** 模型優化與應用 **

    **5 離群點檢測 **

    threshold= 2
    norm = []
    ** for ** i ** in ** range (k): _ #逐一處理
    _ norm_tmp = r[[ ** ‘R’ ** , ** ‘F’ ** , ** ‘M’ ** ]][r[ ** u’聚類類別’ ** ] == i]-model.cluster_centers_[i]
    norm_tmp = norm_tmp.apply(np.linalg.norm, axis = 1 ) _ #求出絕對距離
    _ norm.append(norm_tmp/norm_tmp.median()) _ #求相對距離并添加

    #norm = pd.concat(norm) #合并
    _ norm[norm <= threshold].plot( style = ** ‘go’ ** ) _ #正常點
    _ discrete_points = norm[norm > threshold] _ #離群點
    _ discrete_points.plot( style = ** ‘ro’ ** )

    ** for ** i ** in ** range ( len (discrete_points)): _ #離群點做標記
    _ id = discrete_points.index[i]
    n = discrete_points.iloc[i]
    plt.annotate( ** ‘(%s, %0.2f)’ ** %(id, n), xy = (id, n), xytext = (id,
    n))

    plt.xlabel( ** u’編號’ ** )
    plt.ylabel( ** u’相對距離’ ** )
    plt.show()

    總結

    以上是生活随笔為你收集整理的数据探索的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    成人一区二区三区在线观看 | 精品女同一区二区三区在线观看 | 亚洲成免费| 欧美日韩视频在线观看免费 | 少妇bbw搡bbbb搡bbb | 日本精品久久久久中文字幕 | www.夜夜夜| 超碰激情在线 | 91久久国产综合精品女同国语 | 韩国一区二区三区视频 | 91中文字幕在线视频 | 欧美日韩高清在线 | 日本久久久亚洲精品 | 亚洲,播放 | 日韩欧美一二三 | 国产清纯在线 | 日韩爱爱网站 | 综合久久综合久久 | 亚洲一区美女视频在线观看免费 | 亚洲精品在线免费播放 | 日本性久久 | 亚洲一区二区三区在线看 | 欧美日韩精品免费观看 | 五月天久久激情 | 在线观看av网 | 久久av福利 | 欧美一区二区三区在线视频观看 | 亚洲一区久久久 | 天天视频亚洲 | 69久久久 | 亚洲国产免费av | 久久久免费 | 国产精品一区二区三区观看 | 丁香高清视频在线看看 | 一级黄色片网站 | 91视频免费播放 | 国产永久免费高清在线观看视频 | 欧洲精品在线视频 | 狠狠色丁香婷婷综合久小说久 | 天天天天射 | 精品美女在线视频 | 国产精品久久久久一区 | 久久久久影视 | 精品国产视频在线观看 | 国产又粗又硬又爽的视频 | 91九色蝌蚪视频在线 | 精品久久久久久久久中文字幕 | 四虎成人在线 | 久久怡红院 | 国产在线精品播放 | 色就色,综合激情 | www最近高清中文国语在线观看 | 亚洲国产日韩av | 国产精品久久久久久久久久久不卡 | 日韩高清黄色 | 99r在线精品 | 黄色www免费 | 夜夜骑日日操 | 九九九九九国产 | 国产精品一区二区三区免费看 | 91久久偷偷做嫩草影院 | 久久综合久久八八 | 99久久综合精品五月天 | 97在线观看免费高清完整版在线观看 | 久久综合欧美精品亚洲一区 | 国产精品女人久久久 | 香蕉视频网站在线观看 | 久久精品3| 久草视频网 | 九九视频在线播放 | 超碰在线97观看 | 亚洲欧美日韩国产一区二区三区 | 91亚洲精品国偷拍 | 欧美日韩高清一区二区 国产亚洲免费看 | 国产精品av在线免费观看 | 成人在线播放视频 | 久久久久亚洲最大xxxx | 深爱开心激情 | 日韩小视频网站 | 日韩高清免费无专码区 | 99色国产 | 91久久精品一区 | 成人午夜电影久久影院 | 亚洲性少妇性猛交wwww乱大交 | 亚洲精区二区三区四区麻豆 | 国内丰满少妇猛烈精品播 | 综合色在线 | 日韩一级理论片 | 香蕉看片| 国产不卡av在线 | 中文字幕高清av | av高清一区二区三区 | 天天草av | 97在线观看视频免费 | 国产麻豆精品在线观看 | 日本三级久久 | 91新人在线观看 | 黄p在线播放 | 中文字幕在线日 | 亚洲国产免费看 | 人人爽人人爽人人片av | 日本韩国精品在线 | 18pao国产成视频永久免费 | 中文字幕日韩伦理 | 夜夜狠狠 | 国产xvideos免费视频播放 | 香蕉视频在线视频 | 一本一道久久a久久精品蜜桃 | 欧美另类交人妖 | 97香蕉视频 | 中文字幕欧美激情 | 天无日天天操天天干 | 成人黄色片免费看 | 在线看毛片网站 | 开心婷婷色 | 香蕉视频18 | 日韩a级免费视频 | 精品国产一区二区三区四区vr | 九九99靖品 | 亚洲一级特黄 | 久久久久久久久久久影视 | 精品美女在线视频 | 成年人毛片在线观看 | 亚洲作爱视频 | 国产在线久久久 | 亚洲欧美日韩一区二区三区在线观看 | 国产综合精品一区二区三区 | 97电影手机版 | 亚洲欧美日韩国产 | 成人毛片网 | 国产精品美乳一区二区免费 | 一本一本久久a久久精品牛牛影视 | 成年人电影免费看 | 黄色视屏免费在线观看 | 久久五月网 | 韩国一区二区三区视频 | 九九久久在线看 | 97久久久免费福利网址 | 91在线视频在线 | 91成人精品一区在线播放69 | 成人久久免费视频 | 国产精品免费在线播放 | 人人干人人爽 | 国产小视频在线看 | 久久夜色精品国产欧美乱 | 国产一区二区电影在线观看 | 国产亚洲婷婷免费 | 亚洲黄色免费电影 | 久久综合免费视频 | 精品久久久久亚洲 | 久久精品99国产精品日本 | 欧洲精品码一区二区三区免费看 | 国产亚洲亚洲 | 国产美女主播精品一区二区三区 | 一区二区三区国 | 五月婷婷六月丁香 | 一区二区视频在线看 | www天天操| 97在线观看免费高清 | 日韩欧美xxxx | 尤物97国产精品久久精品国产 | 超碰97国产在线 | 99性视频 | 中文字幕在线看片 | 99av国产精品欲麻豆 | 日韩av女优视频 | 人人爱天天操 | 97国产精品亚洲精品 | 人人爱人人舔 | 综合黄色网 | 福利久久久 | 久久综合综合久久综合 | 日韩在线电影一区 | 波多野结衣在线观看一区二区三区 | 亚洲欧洲精品一区二区 | 色的网站在线观看 | 欧美色图另类 | 欧美亚洲免费在线一区 | 欧美a级一区二区 | 日韩视频一 | 日韩在线三级 | 亚洲欧美日韩精品一区二区 | 天天插天天操天天干 | 亚洲极色 | 久久精品美女 | 亚洲精品高清一区二区三区四区 | 欧美一级性 | 婷婷色在线观看 | 91九色视频国产 | 天天爱天天操天天爽 | 人人爽人人搞 | 国产高清不卡 | 亚洲天堂在线观看完整版 | 开心色婷婷 | 狠狠色丁香婷综合久久 | 免费色黄 | 国产特级毛片 | 国产精品 久久 | 免费在线a | a色视频| 中文字幕中文 | 国产一区二区久久久 | 精品一区av| 欧美一级片在线 | 天天综合亚洲 | 免费在线观看日韩 | 国产亚洲日本 | 久久视频一区二区 | 久久乐九色婷婷综合色狠狠182 | av电影一区| 在线成人小视频 | 色婷婷啪啪免费在线电影观看 | 免费a级观看 | 在线观看免费观看在线91 | 亚洲一级片 | 久久午夜国产精品 | 日韩高清一二三区 | 福利久久久 | 天天se天天cao天天干 | 福利一区在线 | 三级黄色理论片 | 激情av综合 | 欧美成人h版电影 | 激情欧美一区二区三区免费看 | 亚洲成av人影院 | 91看毛片 | 黄色福利| www.久久com| 97视频网站 | 久久视频精品在线 | 日本久久高清视频 | 成 人 黄 色 视频 免费观看 | 9在线观看免费高清完整版在线观看明 | 粉嫩av一区二区三区四区五区 | 美女网站色在线观看 | 99久久精品视频免费 | 五月婷婷在线观看视频 | av一级免费 | 国产亚洲欧美日韩高清 | 亚洲欧美视频一区二区三区 | 欧美日韩3p | 国产精品视频全国免费观看 | 国产免费人人看 | 亚洲第一av在线播放 | 天天操天天干天天插 | 久久精品一二三区白丝高潮 | 亚洲视频 在线观看 | 精品国产乱码久久久久久三级人 | 国产亚洲精品美女久久 | 狠狠狠色| av免费在线免费观看 | 欧美91精品久久久久国产性生爱 | 日韩特黄一级欧美毛片特黄 | 久久久久亚洲精品国产 | 国产中年夫妇高潮精品视频 | 精品国自产在线观看 | 国产真实精品久久二三区 | 亚洲日韩欧美一区二区在线 | 国产精品自产拍在线观看蜜 | 黄色av成人在线观看 | 欧美精品中文 | 中文字幕乱码在线播放 | 一区免费在线 | 人成在线免费视频 | 伊人电影在线观看 | 国产手机在线播放 | 最新成人av | 国产黑丝袜在线 | 91久久影院| 五月天婷婷视频 | 亚洲爱爱视频 | 国产69久久久 | 成人小视频在线观看免费 | 午夜精品一区二区三区在线 | 人人揉人人揉人人揉人人揉97 | 婷婷在线播放 | 久久成人综合 | 日韩欧美在线综合网 | 欧美日韩高清一区二区 国产亚洲免费看 | 最新中文字幕视频 | 麻豆国产网站 | 日本女人在线观看 | 欧美另类一二三四区 | 日韩精品久久久久久中文字幕8 | 欧美一区二区日韩一区二区 | 日韩av线观看 | 999国产| 九九久久久久久久久激情 | 欧美a级免费视频 | 亚洲综合在 | 五月婷婷综 | 亚洲精品视频免费 | 日韩精品中文字幕有码 | 欧美精品在线一区 | 九九热精品视频在线观看 | 日韩国产欧美在线视频 | 色婷婷啪啪免费在线电影观看 | 国产美女视频免费观看的网站 | 999电影免费在线观看 | av资源中文字幕 | 婷婷香蕉 | 麻豆91视频 | 日韩h在线观看 | 国内精品在线看 | 成人免费视频网址 | 成 人 免费 黄 色 视频 | 久久久高清免费视频 | 亚洲午夜剧场 | 蜜臀av性久久久久av蜜臀妖精 | 亚洲乱亚洲乱妇 | 日韩1级片 | 最近日本韩国中文字幕 | 亚洲精选在线 | 亚洲精品在线播放视频 | 狠狠色丁香婷综合久久 | 日日干,天天干 | 久久精品影片 | 精品福利网 | 天天操天天操天天操天天操天天操 | 91高清不卡 | 最新av在线网站 | 亚洲人成免费网站 | 婷婷av资源| 最近2019中文免费高清视频观看www99 | 国产午夜一区 | 日本3级在线观看 | 亚洲视频精品 | 国产老太婆免费交性大片 | 激情网五月天 | 欧美另类网站 | www.激情五月.com | 亚洲精品视频在线免费播放 | 人人玩人人添人人 | 成人中文字幕在线观看 | a级成人毛片 | av电影中文字幕 | 在线观看视频日韩 | 久久久久在线 | 在线视频 精品 | 天天操天天怕 | 国产专区视频在线 | 亚洲视频 在线观看 | 中文字幕在线专区 | 欧美成天堂网地址 | 99热这里只有精品在线观看 | 日日精品 | 亚洲精品乱码久久久久久 | 亚洲成人一区 | 大荫蒂欧美视频另类xxxx | 在线观看中文字幕dvd播放 | 91av在线不卡 | 亚洲精品视频在线观看网站 | 91香蕉国产在线观看软件 | 国产精品久久久一区二区三区网站 | 亚州精品国产 | 亚州天堂 | 五月婷网 | 日韩欧美高清一区二区 | 国产在线一卡 | 免费又黄又爽的视频 | 97国产小视频 | 在线观看电影av | 蜜桃视频日韩 | 精品黄色在线观看 | 99久久www| 最新日韩视频在线观看 | 国产成a人亚洲精v品在线观看 | 天天插伊人 | 色综合 久久精品 | 国产一区二区在线观看视频 | 成人av中文字幕 | 欧美色图视频一区 | 亚洲国产三级 | 成人国产精品久久久久久亚洲 | 久久精品视频国产 | 亚洲国产丝袜在线观看 | 日韩av成人在线观看 | 日韩免费视频播放 | 综合色婷婷 | 亚洲在线视频免费 | 国产人成免费视频 | 国产精品毛片久久久久久久 | 美女在线免费观看视频 | 黄色一级免费网站 | 99精品在线观看 | 青青河边草观看完整版高清 | 丁香 婷婷 激情 | 天天在线操 | 黄色片网站大全 | 久久69精品 | 在线欧美中文字幕 | 色偷偷88888欧美精品久久 | 久久97久久97精品免视看 | 四川妇女搡bbbb搡bbbb搡 | 欧美性大胆 | 国产99在线免费 | 久久久综合九色合综国产精品 | 美女网站色 | 午夜精品久久久久久中宇69 | 亚州国产精品 | 久久国产精品久久久久 | 日韩欧美一区二区三区免费观看 | www最近高清中文国语在线观看 | 亚洲最大av在线播放 | 免费在线观看一级片 | 中文字幕色婷婷在线视频 | 在线视频app | 免费一级片在线 | 国产成人精品久久久久 | 国产精品va最新国产精品视频 | av网站有哪些 | 国产一区二区在线免费 | 精品一区二区三区久久久 | 亚洲专区视频在线观看 | 日韩激情小视频 | 日韩一区正在播放 | 亚洲精品美女视频 | 亚洲永久精品视频 | 亚洲小视频在线 | 国产精品美女久久久久久久久 | 久久avav| 日本中文字幕免费观看 | 久久国产精品二国产精品中国洋人 | 中文字幕高清视频 | 综合久久网站 | 天天激情在线 | 成年美女黄网站色大片免费看 | 欧美黑人巨大xxxxx | 久久视频免费 | 91丨九色丨勾搭 | 一区二区三区在线免费播放 | 看片一区二区三区 | 天天搞天天 | 日韩午夜电影网 | 日韩高清不卡一区二区三区 | av在线等| 天天色天天草天天射 | 国内精品久久久久久 | 成人小视频在线 | 国产成人av免费在线观看 | 国产超碰97 | 日本夜夜草视频网站 | 欧美精品视| 美女网站黄免费 | 国产aa精品 | 国产在线黄色 | 黄色大片免费播放 | 国产一级片一区二区三区 | 一区二区三区视频网站 | 国产精品一区二区在线观看免费 | 麻豆免费视频 | 亚洲精品在线免费播放 | 日韩动态视频 | 色之综合网 | 国产伦精品一区二区三区高清 | 九九在线精品视频 | 人人讲 | 美女黄视频免费 | 亚洲砖区区免费 | 成人h视频在线 | 婷香五月 | 中文字幕免费成人 | 免费看黄色小说的网站 | 四月婷婷在线观看 | 国内精自线一二区永久 | 久久99精品久久久久久清纯直播 | 国产成人一区二区精品非洲 | 少妇bbr搡bbb搡bbb| 精品夜夜嗨av一区二区三区 | 日韩动态视频 | 久久精选视频 | 国产一级视频 | 一级黄色片在线免费观看 | 日韩av不卡在线 | 欧美精品久久久久 | 亚洲精品视频网址 | 日韩久久精品一区二区三区下载 | www.888av| 国产成人精品一区二区在线观看 | 丁香花中文字幕 | 亚洲 欧洲 国产 日本 综合 | 国产资源精品在线观看 | 国产亚洲综合性久久久影院 | 免费试看一区 | 国产精品国产亚洲精品看不卡15 | 亚洲精品午夜久久久久久久久久久 | 日韩av二区 | 丁香婷婷综合激情 | 日本久久精品视频 | 免费看国产精品 | 亚洲91av| 精品国产电影一区二区 | www.色国产| www.久久久久 | 国产精品美女在线观看 | 国产免费久久久久 | 亚州av成人| 久久精品久久久精品美女 | 国产涩涩网站 | 欧美视频网址 | 久久99国产一区二区三区 | 最新日韩精品 | 日韩大片在线观看 | 综合色婷婷 | 欧美人人 | 高潮毛片无遮挡高清免费 | 麻豆91小视频 | 99在线观看精品 | 四月婷婷在线观看 | 国产精品久久99综合免费观看尤物 | av成人资源 | 日韩高清一区 | 久久色在线观看 | 久久天堂网站 | 青草视频在线免费 | 国产免费又爽又刺激在线观看 | 正在播放一区二区 | 国产精品综合久久久久久 | 欧美性猛片, | 国产成人精品国内自产拍免费看 | 热九九精品 | 久久污视频 | 亚洲黄污| 久久国产精品网站 | 日韩大陆欧美高清视频区 | 欧美日韩视频 | 香蕉视频导航 | 亚洲一区网 | 亚洲午夜精品一区二区三区电影院 | 黄色av免费在线 | 天天操夜操视频 | 国产日本三级 | 不卡视频一区二区三区 | 国产一区二区三区久久久 | 成人一级片免费看 | 亚洲欧美日韩国产一区二区三区 | 精品a在线 | 99热精品免费观看 | 在线黄av| 久久婷婷国产 | 国产又粗又硬又爽视频 | 精品国产人成亚洲区 | 久草视频观看 | 日韩精品视频免费在线观看 | 久久久五月婷婷 | 亚洲一级特黄 | 91av在 | 五月天久久狠狠 | 久久久久久蜜av免费网站 | 午夜在线观看一区 | 国产成人av一区二区三区在线观看 | 国产亚洲精品久久久久久移动网络 | 国产在线毛片 | 777久久久| 91九色免费视频 | 国产日产亚洲精华av | 91精品国产99久久久久久红楼 | 久久久一本精品99久久精品 | 黄色美女免费网站 | 成人免费视频免费观看 | 最近中文字幕久久 | 狠狠色2019综合网 | 婷婷精品视频 | 亚洲免费小视频 | 国产高清专区 | 精品国产aⅴ麻豆 | 国产亚洲免费的视频看 | 国产香蕉视频在线观看 | www.av中文字幕.com | 久久美女视频 | 丰满少妇在线 | 97成人精品视频在线观看 | 精品1区二区 | 激情视频在线观看网址 | 97在线视频免费看 | 美女黄网站视频免费 | 九九视频网站 | www.天天成人国产电影 | 国产资源站 | 国产精品区在线观看 | 精品一区二区在线免费观看 | 中文字幕在线播放一区二区 | 国产白浆在线观看 | 在线观看av不卡 | 婷婷免费在线视频 | 91精品伦理 | 日日狠狠 | 超碰九九 | 中文字幕丝袜美腿 | 亚洲午夜不卡 | 国产日产精品一区二区三区四区的观看方式 | 在线观看第一页 | 国产一区二区三区久久久 | 人人揉人人揉人人揉人人揉97 | 月下香电影 | 97视频免费在线看 | 精品视频久久久 | 91免费高清视频 | 久久久高清 | 日日操日日 | 一区三区视频在线观看 | 四虎最新域名 | 亚洲精选久久 | 在线99 | 亚洲 欧美 日韩 综合 | 最新免费av在线 | 国产精品久久久久久久久久新婚 | 色综合天天天天做夜夜夜夜做 | 国产91在线观 | 久久美女高清视频 | 亚洲国产精品电影 | 国产精品毛片一区二区 | 日韩av偷拍 | 91精品视频免费看 | 黄色av电影网 | 丝袜少妇在线 | 手机av电影在线观看 | 天天操,夜夜操 | 亚洲精品国产拍在线 | 欧美一级片播放 | 99精品视频免费观看视频 | 精品xxx| 亚洲高清视频在线播放 | 亚洲综合欧美精品电影 | 久草视频首页 | 最新日韩在线 | 91精品在线视频 | 日韩美视频 | 久久精品视频网站 | 国产视频一二三 | 久久国产精品网站 | 看片一区二区三区 | 亚洲国产精品第一区二区 | 免费又黄又爽 | 久久爱综合 | 韩国精品在线 | 久久国产精品99国产 | av高清在线观看 | 91人人爽人人爽人人精88v | 国产视频午夜 | 国产女v资源在线观看 | 综合网天天 | 91久久影院| 国产一区播放 | 99精彩视频 | 最新av网址大全 | 蜜桃视频日韩 | 日韩剧 | 在线电影91| 精品欧美一区二区在线观看 | 久久久国产一区二区三区 | 成年人在线看片 | 亚洲天堂网在线视频观看 | 欧美精品xx | 视频国产一区二区三区 | 国产精品爽爽爽 | 欧美激情综合五月色丁香小说 | 欧美在线视频第一页 | 亚洲成av人影片在线观看 | 久久国产二区 | www.色五月.com | 久草在在线| 东方av在线免费观看 | 中文字幕一区二区在线观看 | 婷婷在线免费视频 | 高清国产在线一区 | 在线黄色免费av | 丁香五月网久久综合 | 欧美精品亚洲精品日韩精品 | 字幕网资源站中文字幕 | 99精品在线免费观看 | 久久精品综合网 | 亚洲精品综合欧美二区变态 | 国产精品一区二区电影 | 中文字幕 影院 | 国产91精品久久久久久 | 国产精品美女久久久久久2018 | 国产精品 亚洲精品 | 91人人揉日日捏人人看 | 日韩电影久久久 | 国产日韩精品一区二区三区在线 | 国产精品久久久久久麻豆一区 | 日韩字幕在线观看 | 精品国偷自产国产一区 | 丁香六月婷 | 一二三精品视频 | 日韩黄色免费电影 | 免费特级黄色片 | 久久综合五月天婷婷伊人 | 久草免费在线视频观看 | 国产午夜一区二区 | 欧美极度另类 | 操操操av | 亚洲一区 影院 | 日韩电影一区二区三区在线观看 | 久久免费在线观看 | 久久久精品欧美一区二区免费 | 人人玩人人添人人澡97 | 特级毛片爽www免费版 | 97精品视频在线 | 99这里有精品 | 免费成人看片 | 99成人精品| av一级一片 | 久久99最新地址 | 不卡电影免费在线播放一区 | 欧美analxxxx | 黄网站免费看 | 视频1区2区 | 久久色网站 | 最近高清中文字幕在线国语5 | 日韩精品一区二区在线视频 | 一区二区三区av在线 | av成人免费在线观看 | 97国产大学生情侣酒店的特点 | 在线黄色av | 婷婷六月激情 | 最近字幕在线观看第一季 | 91精品国产综合久久福利不卡 | 国产在线欧美日韩 | 正在播放日韩 | 综合久久久久久久久 | 亚洲精品美女久久久久 | 成人免费网站在线观看 | 日日操夜 | 欧美一级专区免费大片 | 欧美日韩xxx| 丁香婷婷综合网 | 91在线观看高清 | 在线观看日韩免费视频 | 国产日产亚洲精华av | 成人资源在线播放 | 99久久精品久久久久久清纯 | a视频免费在线观看 | 亚洲国产av精品毛片鲁大师 | 日韩视频中文字幕在线观看 | 最近中文字幕高清字幕在线视频 | 亚洲国产精品久久久久久 | 国产精品免费久久久久久 | 综合精品久久久 | 日韩亚洲国产中文字幕 | 中文字幕一区二区三区四区久久 | 免费观看成人av | 天天色天天操天天爽 | 91桃花视频 | 亚欧日韩成人h片 | 国产中文字幕在线观看 | 麻豆传媒视频在线播放 | 91私密视频 | 天天色天天操综合网 | 久爱精品在线 | 99精品国产成人一区二区 | 亚洲一区二区高潮无套美女 | 婷婷久久亚洲 | 亚洲春色综合另类校园电影 | 精品av在线播放 | 成人午夜毛片 | 视频在线观看日韩 | 欧美小视频在线观看 | 8x成人免费视频 | 最新国产精品亚洲 | 国产一区二区电影在线观看 | 在线免费视频你懂的 | 日韩av在线一区二区 | 91精品久久久久久久久久久久久 | 国产传媒一区在线 | 碰碰影院 | 在线精品一区二区 | 色久综合 | 日韩在线中文字幕视频 | 伊人久久在线观看 | 干干夜夜 | 欧美激情视频在线免费观看 | 国产a网站 | 九色最新网址 | 久久久99精品免费观看 | 日批视频国产 | 久久夜色精品国产欧美乱 | 欧美动漫一区二区三区 | 日日爽视频 | 久久综合中文色婷婷 | 久久中文字幕导航 | 国产免码va在线观看免费 | 在线观看日韩国产 | 国产另类xxxxhd高清 | 亚洲国产欧美在线人成大黄瓜 | 欧美精品v国产精品 | 天天操导航 | 婷婷在线观看视频 | av中文字幕亚洲 | 看污网站| 97精品国产 | 香蕉97视频观看在线观看 | 波多野结衣在线视频免费观看 | 国产福利91精品张津瑜 | 亚洲精品网址在线观看 | 五月婷视频| 欧美色图88 | 国产精品综合久久久 | 色综合天天色综合 | 国产精品网红福利 | 99热这里精品 | 亚洲麻豆精品 | 天天爱av导航 | 久久国产精品免费 | 成人免费观看网址 | 中文一区二区三区在线观看 | 美女精品在线 | 亚洲成人资源 | 婷婷综合久久 | 中文字幕乱偷在线 | 69亚洲乱| 天天爱天天 | 午夜精品一区二区三区免费视频 | 国产成人资源 | 国产色一区 | 日韩一区二区三区观看 | 国产福利小视频在线 | 成人av网页 | 五月天激情综合网 | 亚洲精品男女 | 色91在线视频 | 成年人看片网站 | www黄在线| 国产精品美女久久久久久久 | 国产伦理久久精品久久久久_ | 色瓜 | 国产精品完整版 | 99久久精品国产系列 | 国产精品久久久网站 | 久久欧洲视频 | www.狠狠| 九色琪琪久久综合网天天 | 成人av日韩| 国产无区一区二区三麻豆 | 香蕉视频久久久 | 中文区中文字幕免费看 | 久久影院亚洲 | 99色99| 国产一级91 | 99免费在线 | 国产18精品乱码免费看 | av手机版| 973理论片235影院9 | 国产精品久久久久av免费 | 国产精品一区二区美女视频免费看 | 99精品免费久久久久久久久 | 久久蜜桃av| 欧美日韩在线观看一区二区三区 | 成人精品一区二区三区电影免费 | 成人午夜剧场在线观看 | 中文字幕2021 | 啪啪免费视频网站 | 中文在线√天堂 | 成人免费一级片 | 最近中文字幕 | 国内精品久久久久久久久久久久 | 欧美在线18 | 亚洲视频免费在线观看 | 开心丁香婷婷深爱五月 | 特黄色大片 | 亚洲天天在线日亚洲洲精 | 五月天久久综合 | 国产一区在线观看视频 | 夜色成人网 | 亚洲传媒在线 | 91字幕| 18做爰免费视频网站 | 欧美一级日韩三级 | 一区二区三区中文字幕在线观看 | 69国产成人综合久久精品欧美 | 久久精品视频3 | 国产成人61精品免费看片 | 国产精品一区二区久久久 | 一级性生活片 | 五月婷婷视频在线 | 999日韩 | 精品中文字幕视频 | 丝袜美腿在线视频 | 91视频com| 三级av在线播放 | 国产精品免费一区二区 | 婷婷丁香激情五月 | 欧美美女一级片 | 中字幕视频在线永久在线观看免费 | av福利资源 | 制服丝袜亚洲 | 欧美激情第十页 | 国产精品综合久久久 | 特级西西444www高清大视频 | 麻豆传媒电影在线观看 | 久久久久久网址 | 日本一区二区免费在线观看 | 毛片二区| 日韩动漫免费观看高清完整版在线观看 | 亚洲天堂精品视频 | 久免费 | 亚洲国产经典视频 | 日本精品一区二区在线观看 | 久久天 | 亚洲欧美精品一区二区 | 国产福利一区二区在线 | 色.www| 精品国产成人在线 | 欧美日韩一区久久 | 精品国产一区二区三区久久久蜜臀 | 久久国产精品精品国产色婷婷 | 黄色大片免费播放 | 天天色天天操天天爽 | 激情五月婷婷激情 | 在线国产黄色 | 国产在线a | 午夜久久影院 | 麻豆免费视频网站 | 国产精美视频 | 亚洲精品456在线播放乱码 | 五月天最新网址 | 免费观看全黄做爰大片国产 | 99久久婷婷国产综合精品 | 在线日韩精品视频 | 午夜精品成人一区二区三区 | 超碰日韩在线 | 久久人视频 | 欧美精品久久久久久久久久丰满 | 成人国产精品久久久久久亚洲 | 91中文字幕在线观看 | 成人黄色在线观看视频 | 五月婷婷狠狠 | 日韩欧美国产视频 | 精品国产1区 | 亚洲视频综合 | 中文字幕在线播放第一页 | 中文字幕a∨在线乱码免费看 | 四虎8848免费高清在线观看 | 福利网址在线观看 | 成人h动漫精品一区二 | 国产日韩欧美视频在线观看 | 国产午夜精品一区二区三区 | 中文字幕电影一区 | 波多野结衣网址 | 在线观看aa| 99久久综合狠狠综合久久 | 97国产大学生情侣白嫩酒店 | 91九色蝌蚪视频网站 | 高清视频一区二区三区 | 国产探花视频在线播放 | 亚州av成人| 超碰97久久 | 亚洲精品88欧美一区二区 | 在线播放 亚洲 | 精品福利网 | 久久久九九| 91在线操| 在线观看91网站 | wwwwww色| 精品在线视频观看 | 久久综合久久久久88 | 日韩系列在线观看 | 久草 | 久久久一本精品99久久精品66 | 99视频在线免费观看 | 久久人人干 | 成年人免费电影在线观看 | 欧美日本日韩aⅴ在线视频 插插插色综合 | 成人免费一区二区三区在线观看 | 国产精品毛片久久久久久久 | 在线免费av播放 | 欧美在线99| 午夜私人影院久久久久 | 亚洲激情五月 | 欧美一级片在线观看视频 | 久久久国产精品免费 | 日韩免费视频播放 | 亚洲美女视频在线 | 天天操天天射天天添 | 国产欧美综合在线观看 | 在线中文字幕播放 | 国产精品久久久久三级 | 国产黄色免费在线观看 | 五月香视频在线观看 | 大荫蒂欧美视频另类xxxx | 夜色.com| 人人插人人费 | 蜜桃av观看 | 日韩av中文字幕在线免费观看 | 成人在线观看影院 | 在线观看亚洲国产 | 九九九九精品九九九九 | 欧美精品久久久久久久久久久 | 亚洲成a人片在线观看中文 中文字幕在线视频第一页 狠狠色丁香婷婷综合 | 久久 精品一区 | 国产一区二区三区久久久 | 手机在线视频福利 | 91av亚洲| 黄色www| 色多多视频在线 | 91福利在线导航 | 日韩毛片在线一区二区毛片 |