日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

机器学习实战--决策树算法

發(fā)布時(shí)間:2023/12/15 编程问答 63 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习实战--决策树算法 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

決策樹(shù)

決策樹(shù)(decision tree)是一種基本的分類與回歸方法。從判斷模塊引出的左右箭頭稱為分支,它可以達(dá)到另外一個(gè)判斷模塊或者終止模塊。分類決策樹(shù)模型是一種描述對(duì)實(shí)例進(jìn)行分類的樹(shù)形結(jié)構(gòu)。決策樹(shù)由節(jié)點(diǎn)(node)和有向邊(directed edge)組成。節(jié)點(diǎn)有內(nèi)部節(jié)點(diǎn)(internal node)和葉節(jié)點(diǎn)(leaf node)。內(nèi)部節(jié)點(diǎn)表示一個(gè)特征或者屬性,葉節(jié)點(diǎn)表示一個(gè)類。

1. 決策樹(shù)流程:

  • 收集數(shù)據(jù):可以使用任何方法收集到的數(shù)據(jù)。
  • 準(zhǔn)備數(shù)據(jù):收集完數(shù)據(jù)之后,我們要對(duì)數(shù)據(jù)進(jìn)行整理,將這些數(shù)據(jù)按照一定的要求進(jìn)行整理出來(lái),方便后續(xù)數(shù)據(jù)處理
  • 分析數(shù)據(jù):可以使用任何方法,決策樹(shù)構(gòu)建完成之后,可以檢查我們的決策樹(shù)圖形是否符合預(yù)期要求。
  • 訓(xùn)練算法:這個(gè)過(guò)程也就是構(gòu)建決策樹(shù),同樣也叫做決策樹(shù)學(xué)習(xí),就是構(gòu)建一個(gè)決策樹(shù)的數(shù)據(jù)結(jié)構(gòu)
  • 測(cè)試算法:使用經(jīng)驗(yàn)樹(shù)計(jì)算錯(cuò)誤率,當(dāng)錯(cuò)誤率達(dá)到了可接受的范圍,這個(gè)決策樹(shù)就可以投放使用了。
  • 使用算法:此步驟可以適用于任何監(jiān)督學(xué)習(xí)算法,而使用決策樹(shù)可以更好的理解數(shù)據(jù)的內(nèi)在含義。
    決策樹(shù)一般構(gòu)建分成三個(gè)步驟:特征選擇、決策樹(shù)的生成、決策樹(shù)的剪枝

1.1 特征選擇

特征選擇在于選擇對(duì)訓(xùn)練數(shù)據(jù)具有分類的特征,這樣可以提高決策樹(shù)學(xué)習(xí)的效率,如果利用一個(gè)特征進(jìn)行分類的結(jié)果與隨機(jī)分類的結(jié)果沒(méi)有多大的區(qū)別,則稱這個(gè)特征是沒(méi)有分類能力的。經(jīng)驗(yàn)上扔掉這樣的特征對(duì)決策樹(shù)學(xué)習(xí)的精度影響不大。通常特征選擇的標(biāo)準(zhǔn)是信息增益(information gain)或者信息增益比,為了簡(jiǎn)單,本文使用信息增益作為選擇特征的標(biāo)準(zhǔn)。

希望通過(guò)所給的訓(xùn)練數(shù)據(jù)學(xué)習(xí)一個(gè)貸款申請(qǐng)的決策樹(shù),用于對(duì)未來(lái)的貸款申請(qǐng)進(jìn)行分類,即當(dāng)新的客戶提出貸款申請(qǐng)時(shí),根據(jù)申請(qǐng)人的特征利用決策樹(shù)是否批準(zhǔn)貸款申請(qǐng)。
特征選擇就是決定用哪個(gè)特征來(lái)劃分特征空間,比如上表兩個(gè)可能的決策樹(shù),分別由兩個(gè)不同特征的根節(jié)點(diǎn)構(gòu)成。年齡節(jié)點(diǎn)或者是否有工作兩個(gè)節(jié)點(diǎn)。不同的根節(jié)點(diǎn),對(duì)應(yīng)不同的決策樹(shù)。究竟哪個(gè)效果更好?就需要用到信息增益,可以很好的表示這一直觀的準(zhǔn)則。
什么是信息增益?在劃分?jǐn)?shù)據(jù)集之前之后發(fā)生的信息變化就是信息增益,知道如何計(jì)算信息增益,我們就可以計(jì)算每個(gè)特征值劃分?jǐn)?shù)據(jù)集獲得的信息增益,獲得信息增益最高的特征就是最好的選擇。

1.2 計(jì)算經(jīng)驗(yàn)熵

在進(jìn)行代碼編寫(xiě)之前,我們需要先對(duì)數(shù)據(jù)集進(jìn)行屬性標(biāo)注

  • 年齡: 0代表青年,1代表中年,2代表老年;
  • 有工作:0代表否,1代表是;
  • 有自己的房子:0代表否,1代表是;
  • 信貸情況:0代表一般,1代表好,2代表非常好;
  • 類別(是否給貸款):no表示否,yes表示是。
    計(jì)算經(jīng)驗(yàn)熵
from math import log""" 函數(shù)說(shuō)明:創(chuàng)建測(cè)試數(shù)據(jù)集Parameters:無(wú) Returns:dataSet - 數(shù)據(jù)集labels - 分類屬性 """ def createDataSet():dataSet = [[0, 0, 0, 0, 'no'], #數(shù)據(jù)集[0, 0, 0, 1, 'no'],[0, 1, 0, 1, 'yes'],[0, 1, 1, 0, 'yes'],[0, 0, 0, 0, 'no'],[1, 0, 0, 0, 'no'],[1, 0, 0, 1, 'no'],[1, 1, 1, 1, 'yes'],[1, 0, 1, 2, 'yes'],[1, 0, 1, 2, 'yes'],[2, 0, 1, 2, 'yes'],[2, 0, 1, 1, 'yes'],[2, 1, 0, 1, 'yes'],[2, 1, 0, 2, 'yes'],[2, 0, 0, 0, 'no']]labels = ['年齡', '有工作', '有自己的房子', '信貸情況'] #分類屬性return dataSet, labels #返回?cái)?shù)據(jù)集和分類屬性""" 函數(shù)說(shuō)明:計(jì)算給定數(shù)據(jù)集的經(jīng)驗(yàn)熵(香農(nóng)熵)Parameters:dataSet - 數(shù)據(jù)集 Returns:shannonEnt - 經(jīng)驗(yàn)熵(香農(nóng)熵) """ def calcShannonEnt(dataSet):numEntires = len(dataSet) #返回?cái)?shù)據(jù)集的行數(shù)labelCounts = {} #保存每個(gè)標(biāo)簽(Label)出現(xiàn)次數(shù)的字典for featVec in dataSet: #對(duì)每組特征向量進(jìn)行統(tǒng)計(jì)currentLabel = featVec[-1] #提取標(biāo)簽(Label)信息if currentLabel not in labelCounts.keys(): #如果標(biāo)簽(Label)沒(méi)有放入統(tǒng)計(jì)次數(shù)的字典,添加進(jìn)去labelCounts[currentLabel] = 0labelCounts[currentLabel] += 1 #Label計(jì)數(shù)shannonEnt = 0.0 #經(jīng)驗(yàn)熵(香農(nóng)熵)for key in labelCounts: #計(jì)算香農(nóng)熵prob = float(labelCounts[key]) / numEntires #選擇該標(biāo)簽(Label)的概率shannonEnt -= prob * log(prob, 2) #利用公式計(jì)算return shannonEnt #返回經(jīng)驗(yàn)熵(香農(nóng)熵)if __name__ == '__main__':dataSet, features = createDataSet()print(dataSet)print(calcShannonEnt(dataSet))

代碼運(yùn)行結(jié)果如下圖所示,代碼先打印訓(xùn)練數(shù)據(jù)集,再打印經(jīng)驗(yàn)熵

1.3 計(jì)算信息增益

信息增益越大,特征對(duì)最終的分類結(jié)果的影響也就越大,我們選擇對(duì)最終分類結(jié)果影響最大的那個(gè)特征作為我們的分類特征

# -*- coding: UTF-8 -*- from math import log""" 函數(shù)說(shuō)明:計(jì)算給定數(shù)據(jù)集的經(jīng)驗(yàn)熵(香農(nóng)熵)Parameters:dataSet - 數(shù)據(jù)集 Returns:shannonEnt - 經(jīng)驗(yàn)熵(香農(nóng)熵) """ def calcShannonEnt(dataSet):numEntires = len(dataSet) #返回?cái)?shù)據(jù)集的行數(shù)labelCounts = {} #保存每個(gè)標(biāo)簽(Label)出現(xiàn)次數(shù)的字典for featVec in dataSet: #對(duì)每組特征向量進(jìn)行統(tǒng)計(jì)currentLabel = featVec[-1] #提取標(biāo)簽(Label)信息if currentLabel not in labelCounts.keys(): #如果標(biāo)簽(Label)沒(méi)有放入統(tǒng)計(jì)次數(shù)的字典,添加進(jìn)去labelCounts[currentLabel] = 0labelCounts[currentLabel] += 1 #Label計(jì)數(shù)shannonEnt = 0.0 #經(jīng)驗(yàn)熵(香農(nóng)熵)for key in labelCounts: #計(jì)算香農(nóng)熵prob = float(labelCounts[key]) / numEntires #選擇該標(biāo)簽(Label)的概率shannonEnt -= prob * log(prob, 2) #利用公式計(jì)算return shannonEnt #返回經(jīng)驗(yàn)熵(香農(nóng)熵)""" 函數(shù)說(shuō)明:創(chuàng)建測(cè)試數(shù)據(jù)集Parameters:無(wú) Returns:dataSet - 數(shù)據(jù)集labels - 分類屬性 """ def createDataSet():dataSet = [[0, 0, 0, 0, 'no'], #數(shù)據(jù)集[0, 0, 0, 1, 'no'],[0, 1, 0, 1, 'yes'],[0, 1, 1, 0, 'yes'],[0, 0, 0, 0, 'no'],[1, 0, 0, 0, 'no'],[1, 0, 0, 1, 'no'],[1, 1, 1, 1, 'yes'],[1, 0, 1, 2, 'yes'],[1, 0, 1, 2, 'yes'],[2, 0, 1, 2, 'yes'],[2, 0, 1, 1, 'yes'],[2, 1, 0, 1, 'yes'],[2, 1, 0, 2, 'yes'],[2, 0, 0, 0, 'no']]labels = ['年齡', '有工作', '有自己的房子', '信貸情況'] #分類屬性return dataSet, labels #返回?cái)?shù)據(jù)集和分類屬性""" 函數(shù)說(shuō)明:按照給定特征劃分?jǐn)?shù)據(jù)集Parameters:dataSet - 待劃分的數(shù)據(jù)集axis - 劃分?jǐn)?shù)據(jù)集的特征value - 需要返回的特征的值 Returns:無(wú) """ def splitDataSet(dataSet, axis, value): retDataSet = [] #創(chuàng)建返回的數(shù)據(jù)集列表for featVec in dataSet: #遍歷數(shù)據(jù)集if featVec[axis] == value:reducedFeatVec = featVec[:axis] #去掉axis特征reducedFeatVec.extend(featVec[axis+1:]) #將符合條件的添加到返回的數(shù)據(jù)集retDataSet.append(reducedFeatVec)return retDataSet #返回劃分后的數(shù)據(jù)集""" 函數(shù)說(shuō)明:選擇最優(yōu)特征Parameters:dataSet - 數(shù)據(jù)集 Returns:bestFeature - 信息增益最大的(最優(yōu))特征的索引值 """ def chooseBestFeatureToSplit(dataSet):numFeatures = len(dataSet[0]) - 1 #特征數(shù)量baseEntropy = calcShannonEnt(dataSet) #計(jì)算數(shù)據(jù)集的香農(nóng)熵bestInfoGain = 0.0 #信息增益bestFeature = -1 #最優(yōu)特征的索引值for i in range(numFeatures): #遍歷所有特征#獲取dataSet的第i個(gè)所有特征featList = [example[i] for example in dataSet]uniqueVals = set(featList) #創(chuàng)建set集合{},元素不可重復(fù)newEntropy = 0.0 #經(jīng)驗(yàn)條件熵for value in uniqueVals: #計(jì)算信息增益subDataSet = splitDataSet(dataSet, i, value) #subDataSet劃分后的子集prob = len(subDataSet) / float(len(dataSet)) #計(jì)算子集的概率newEntropy += prob * calcShannonEnt(subDataSet) #根據(jù)公式計(jì)算經(jīng)驗(yàn)條件熵infoGain = baseEntropy - newEntropy #信息增益print("第%d個(gè)特征的增益為%.3f" % (i, infoGain)) #打印每個(gè)特征的信息增益if (infoGain > bestInfoGain): #計(jì)算信息增益bestInfoGain = infoGain #更新信息增益,找到最大的信息增益bestFeature = i #記錄信息增益最大的特征的索引值return bestFeature #返回信息增益最大的特征的索引值if __name__ == '__main__':dataSet, features = createDataSet()print("最優(yōu)特征索引值:" + str(chooseBestFeatureToSplit(dataSet)))

最優(yōu)特征索引值為2

1.4決策樹(shù)生成

1.4.1 ID3算法

D3算法的核心是在決策樹(shù)各個(gè)結(jié)點(diǎn)上對(duì)應(yīng)信息增益準(zhǔn)則選擇特征,遞歸地構(gòu)建決策樹(shù)。具體方法是:從根結(jié)點(diǎn)(root node)開(kāi)始,對(duì)結(jié)點(diǎn)計(jì)算所有可能的特征的信息增益,選擇信息增益最大的特征作為結(jié)點(diǎn)的特征,由該特征的不同取值建立子節(jié)點(diǎn);再對(duì)子結(jié)點(diǎn)遞歸地調(diào)用以上方法,構(gòu)建決策樹(shù);直到所有特征的信息增益均很小或沒(méi)有特征可以選擇為止,最后得到一個(gè)決策樹(shù)。ID3相當(dāng)于用極大似然法進(jìn)行概率模型的選擇。

1.4.2 構(gòu)建決策樹(shù)代碼

# -*- coding: UTF-8 -*- from math import log import operator""" 函數(shù)說(shuō)明:計(jì)算給定數(shù)據(jù)集的經(jīng)驗(yàn)熵(香農(nóng)熵)Parameters:dataSet - 數(shù)據(jù)集 Returns:shannonEnt - 經(jīng)驗(yàn)熵(香農(nóng)熵) """ def calcShannonEnt(dataSet):numEntires = len(dataSet) #返回?cái)?shù)據(jù)集的行數(shù)labelCounts = {} #保存每個(gè)標(biāo)簽(Label)出現(xiàn)次數(shù)的字典for featVec in dataSet: #對(duì)每組特征向量進(jìn)行統(tǒng)計(jì)currentLabel = featVec[-1] #提取標(biāo)簽(Label)信息if currentLabel not in labelCounts.keys(): #如果標(biāo)簽(Label)沒(méi)有放入統(tǒng)計(jì)次數(shù)的字典,添加進(jìn)去labelCounts[currentLabel] = 0labelCounts[currentLabel] += 1 #Label計(jì)數(shù)shannonEnt = 0.0 #經(jīng)驗(yàn)熵(香農(nóng)熵)for key in labelCounts: #計(jì)算香農(nóng)熵prob = float(labelCounts[key]) / numEntires #選擇該標(biāo)簽(Label)的概率shannonEnt -= prob * log(prob, 2) #利用公式計(jì)算return shannonEnt #返回經(jīng)驗(yàn)熵(香農(nóng)熵)""" 函數(shù)說(shuō)明:創(chuàng)建測(cè)試數(shù)據(jù)集Parameters:無(wú) Returns:dataSet - 數(shù)據(jù)集labels - 特征標(biāo)簽 """ def createDataSet():dataSet = [[0, 0, 0, 0, 'no'], #數(shù)據(jù)集[0, 0, 0, 1, 'no'],[0, 1, 0, 1, 'yes'],[0, 1, 1, 0, 'yes'],[0, 0, 0, 0, 'no'],[1, 0, 0, 0, 'no'],[1, 0, 0, 1, 'no'],[1, 1, 1, 1, 'yes'],[1, 0, 1, 2, 'yes'],[1, 0, 1, 2, 'yes'],[2, 0, 1, 2, 'yes'],[2, 0, 1, 1, 'yes'],[2, 1, 0, 1, 'yes'],[2, 1, 0, 2, 'yes'],[2, 0, 0, 0, 'no']]labels = ['年齡', '有工作', '有自己的房子', '信貸情況'] #特征標(biāo)簽return dataSet, labels #返回?cái)?shù)據(jù)集和分類屬性""" 函數(shù)說(shuō)明:按照給定特征劃分?jǐn)?shù)據(jù)集Parameters:dataSet - 待劃分的數(shù)據(jù)集axis - 劃分?jǐn)?shù)據(jù)集的特征value - 需要返回的特征的值 Returns:無(wú) """ def splitDataSet(dataSet, axis, value): retDataSet = [] #創(chuàng)建返回的數(shù)據(jù)集列表for featVec in dataSet: #遍歷數(shù)據(jù)集if featVec[axis] == value:reducedFeatVec = featVec[:axis] #去掉axis特征reducedFeatVec.extend(featVec[axis+1:]) #將符合條件的添加到返回的數(shù)據(jù)集retDataSet.append(reducedFeatVec)return retDataSet #返回劃分后的數(shù)據(jù)集""" 函數(shù)說(shuō)明:選擇最優(yōu)特征Parameters:dataSet - 數(shù)據(jù)集 Returns:bestFeature - 信息增益最大的(最優(yōu))特征的索引值 """ def chooseBestFeatureToSplit(dataSet):numFeatures = len(dataSet[0]) - 1 #特征數(shù)量baseEntropy = calcShannonEnt(dataSet) #計(jì)算數(shù)據(jù)集的香農(nóng)熵bestInfoGain = 0.0 #信息增益bestFeature = -1 #最優(yōu)特征的索引值for i in range(numFeatures): #遍歷所有特征#獲取dataSet的第i個(gè)所有特征featList = [example[i] for example in dataSet]uniqueVals = set(featList) #創(chuàng)建set集合{},元素不可重復(fù)newEntropy = 0.0 #經(jīng)驗(yàn)條件熵for value in uniqueVals: #計(jì)算信息增益subDataSet = splitDataSet(dataSet, i, value) #subDataSet劃分后的子集prob = len(subDataSet) / float(len(dataSet)) #計(jì)算子集的概率newEntropy += prob * calcShannonEnt(subDataSet) #根據(jù)公式計(jì)算經(jīng)驗(yàn)條件熵infoGain = baseEntropy - newEntropy #信息增益# print("第%d個(gè)特征的增益為%.3f" % (i, infoGain)) #打印每個(gè)特征的信息增益if (infoGain > bestInfoGain): #計(jì)算信息增益bestInfoGain = infoGain #更新信息增益,找到最大的信息增益bestFeature = i #記錄信息增益最大的特征的索引值return bestFeature #返回信息增益最大的特征的索引值""" 函數(shù)說(shuō)明:統(tǒng)計(jì)classList中出現(xiàn)此處最多的元素(類標(biāo)簽)Parameters:classList - 類標(biāo)簽列表 Returns:sortedClassCount[0][0] - 出現(xiàn)此處最多的元素(類標(biāo)簽) """ def majorityCnt(classList):classCount = {}for vote in classList: #統(tǒng)計(jì)classList中每個(gè)元素出現(xiàn)的次數(shù)if vote not in classCount.keys():classCount[vote] = 0 classCount[vote] += 1sortedClassCount = sorted(classCount.items(), key = operator.itemgetter(1), reverse = True) #根據(jù)字典的值降序排序return sortedClassCount[0][0] #返回classList中出現(xiàn)次數(shù)最多的元素""" 函數(shù)說(shuō)明:創(chuàng)建決策樹(shù)Parameters:dataSet - 訓(xùn)練數(shù)據(jù)集labels - 分類屬性標(biāo)簽featLabels - 存儲(chǔ)選擇的最優(yōu)特征標(biāo)簽 Returns:myTree - 決策樹(shù) """ def createTree(dataSet, labels, featLabels):classList = [example[-1] for example in dataSet] #取分類標(biāo)簽(是否放貸:yes or no)if classList.count(classList[0]) == len(classList): #如果類別完全相同則停止繼續(xù)劃分return classList[0]if len(dataSet[0]) == 1: #遍歷完所有特征時(shí)返回出現(xiàn)次數(shù)最多的類標(biāo)簽return majorityCnt(classList)bestFeat = chooseBestFeatureToSplit(dataSet) #選擇最優(yōu)特征bestFeatLabel = labels[bestFeat] #最優(yōu)特征的標(biāo)簽featLabels.append(bestFeatLabel)myTree = {bestFeatLabel:{}} #根據(jù)最優(yōu)特征的標(biāo)簽生成樹(shù)del(labels[bestFeat]) #刪除已經(jīng)使用特征標(biāo)簽featValues = [example[bestFeat] for example in dataSet] #得到訓(xùn)練集中所有最優(yōu)特征的屬性值uniqueVals = set(featValues) #去掉重復(fù)的屬性值for value in uniqueVals: #遍歷特征,創(chuàng)建決策樹(shù)。 myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value), labels, featLabels)return myTreeif __name__ == '__main__':dataSet, labels = createDataSet()featLabels = []myTree = createTree(dataSet, labels, featLabels)print(myTree)

1.4.3決策樹(shù)可視化

# -*- coding: UTF-8 -*- from matplotlib.font_manager import FontProperties import matplotlib.pyplot as plt from math import log import operator""" 函數(shù)說(shuō)明:計(jì)算給定數(shù)據(jù)集的經(jīng)驗(yàn)熵(香農(nóng)熵)Parameters:dataSet - 數(shù)據(jù)集 Returns:shannonEnt - 經(jīng)驗(yàn)熵(香農(nóng)熵) """ def calcShannonEnt(dataSet):numEntires = len(dataSet) #返回?cái)?shù)據(jù)集的行數(shù)labelCounts = {} #保存每個(gè)標(biāo)簽(Label)出現(xiàn)次數(shù)的字典for featVec in dataSet: #對(duì)每組特征向量進(jìn)行統(tǒng)計(jì)currentLabel = featVec[-1] #提取標(biāo)簽(Label)信息if currentLabel not in labelCounts.keys(): #如果標(biāo)簽(Label)沒(méi)有放入統(tǒng)計(jì)次數(shù)的字典,添加進(jìn)去labelCounts[currentLabel] = 0labelCounts[currentLabel] += 1 #Label計(jì)數(shù)shannonEnt = 0.0 #經(jīng)驗(yàn)熵(香農(nóng)熵)for key in labelCounts: #計(jì)算香農(nóng)熵prob = float(labelCounts[key]) / numEntires #選擇該標(biāo)簽(Label)的概率shannonEnt -= prob * log(prob, 2) #利用公式計(jì)算return shannonEnt #返回經(jīng)驗(yàn)熵(香農(nóng)熵)""" 函數(shù)說(shuō)明:創(chuàng)建測(cè)試數(shù)據(jù)集Parameters:無(wú) Returns:dataSet - 數(shù)據(jù)集labels - 特征標(biāo)簽 """ def createDataSet():dataSet = [[0, 0, 0, 0, 'no'], #數(shù)據(jù)集[0, 0, 0, 1, 'no'],[0, 1, 0, 1, 'yes'],[0, 1, 1, 0, 'yes'],[0, 0, 0, 0, 'no'],[1, 0, 0, 0, 'no'],[1, 0, 0, 1, 'no'],[1, 1, 1, 1, 'yes'],[1, 0, 1, 2, 'yes'],[1, 0, 1, 2, 'yes'],[2, 0, 1, 2, 'yes'],[2, 0, 1, 1, 'yes'],[2, 1, 0, 1, 'yes'],[2, 1, 0, 2, 'yes'],[2, 0, 0, 0, 'no']]labels = ['年齡', '有工作', '有自己的房子', '信貸情況'] #特征標(biāo)簽return dataSet, labels #返回?cái)?shù)據(jù)集和分類屬性""" 函數(shù)說(shuō)明:按照給定特征劃分?jǐn)?shù)據(jù)集Parameters:dataSet - 待劃分的數(shù)據(jù)集axis - 劃分?jǐn)?shù)據(jù)集的特征value - 需要返回的特征的值 Returns:無(wú) """ def splitDataSet(dataSet, axis, value): retDataSet = [] #創(chuàng)建返回的數(shù)據(jù)集列表for featVec in dataSet: #遍歷數(shù)據(jù)集if featVec[axis] == value:reducedFeatVec = featVec[:axis] #去掉axis特征reducedFeatVec.extend(featVec[axis+1:]) #將符合條件的添加到返回的數(shù)據(jù)集retDataSet.append(reducedFeatVec)return retDataSet #返回劃分后的數(shù)據(jù)集""" 函數(shù)說(shuō)明:選擇最優(yōu)特征Parameters:dataSet - 數(shù)據(jù)集 Returns:bestFeature - 信息增益最大的(最優(yōu))特征的索引值 """ def chooseBestFeatureToSplit(dataSet):numFeatures = len(dataSet[0]) - 1 #特征數(shù)量baseEntropy = calcShannonEnt(dataSet) #計(jì)算數(shù)據(jù)集的香農(nóng)熵bestInfoGain = 0.0 #信息增益bestFeature = -1 #最優(yōu)特征的索引值for i in range(numFeatures): #遍歷所有特征#獲取dataSet的第i個(gè)所有特征featList = [example[i] for example in dataSet]uniqueVals = set(featList) #創(chuàng)建set集合{},元素不可重復(fù)newEntropy = 0.0 #經(jīng)驗(yàn)條件熵for value in uniqueVals: #計(jì)算信息增益subDataSet = splitDataSet(dataSet, i, value) #subDataSet劃分后的子集prob = len(subDataSet) / float(len(dataSet)) #計(jì)算子集的概率newEntropy += prob * calcShannonEnt(subDataSet) #根據(jù)公式計(jì)算經(jīng)驗(yàn)條件熵infoGain = baseEntropy - newEntropy #信息增益# print("第%d個(gè)特征的增益為%.3f" % (i, infoGain)) #打印每個(gè)特征的信息增益if (infoGain > bestInfoGain): #計(jì)算信息增益bestInfoGain = infoGain #更新信息增益,找到最大的信息增益bestFeature = i #記錄信息增益最大的特征的索引值return bestFeature #返回信息增益最大的特征的索引值""" 函數(shù)說(shuō)明:統(tǒng)計(jì)classList中出現(xiàn)此處最多的元素(類標(biāo)簽)Parameters:classList - 類標(biāo)簽列表 Returns:sortedClassCount[0][0] - 出現(xiàn)此處最多的元素(類標(biāo)簽) """ def majorityCnt(classList):classCount = {}for vote in classList: #統(tǒng)計(jì)classList中每個(gè)元素出現(xiàn)的次數(shù)if vote not in classCount.keys():classCount[vote] = 0 classCount[vote] += 1sortedClassCount = sorted(classCount.items(), key = operator.itemgetter(1), reverse = True) #根據(jù)字典的值降序排序return sortedClassCount[0][0] #返回classList中出現(xiàn)次數(shù)最多的元素""" 函數(shù)說(shuō)明:創(chuàng)建決策樹(shù)Parameters:dataSet - 訓(xùn)練數(shù)據(jù)集labels - 分類屬性標(biāo)簽featLabels - 存儲(chǔ)選擇的最優(yōu)特征標(biāo)簽 Returns:myTree - 決策樹(shù) """ def createTree(dataSet, labels, featLabels):classList = [example[-1] for example in dataSet] #取分類標(biāo)簽(是否放貸:yes or no)if classList.count(classList[0]) == len(classList): #如果類別完全相同則停止繼續(xù)劃分return classList[0]if len(dataSet[0]) == 1: #遍歷完所有特征時(shí)返回出現(xiàn)次數(shù)最多的類標(biāo)簽return majorityCnt(classList)bestFeat = chooseBestFeatureToSplit(dataSet) #選擇最優(yōu)特征bestFeatLabel = labels[bestFeat] #最優(yōu)特征的標(biāo)簽featLabels.append(bestFeatLabel)myTree = {bestFeatLabel:{}} #根據(jù)最優(yōu)特征的標(biāo)簽生成樹(shù)del(labels[bestFeat]) #刪除已經(jīng)使用特征標(biāo)簽featValues = [example[bestFeat] for example in dataSet] #得到訓(xùn)練集中所有最優(yōu)特征的屬性值uniqueVals = set(featValues) #去掉重復(fù)的屬性值for value in uniqueVals: #遍歷特征,創(chuàng)建決策樹(shù)。 myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value), labels, featLabels)return myTree""" 函數(shù)說(shuō)明:獲取決策樹(shù)葉子結(jié)點(diǎn)的數(shù)目Parameters:myTree - 決策樹(shù) Returns:numLeafs - 決策樹(shù)的葉子結(jié)點(diǎn)的數(shù)目 """ def getNumLeafs(myTree):numLeafs = 0 #初始化葉子firstStr = next(iter(myTree)) #python3中myTree.keys()返回的是dict_keys,不在是list,所以不能使用myTree.keys()[0]的方法獲取結(jié)點(diǎn)屬性,可以使用list(myTree.keys())[0]secondDict = myTree[firstStr] #獲取下一組字典for key in secondDict.keys():if type(secondDict[key]).__name__=='dict': #測(cè)試該結(jié)點(diǎn)是否為字典,如果不是字典,代表此結(jié)點(diǎn)為葉子結(jié)點(diǎn)numLeafs += getNumLeafs(secondDict[key])else: numLeafs +=1return numLeafs""" 函數(shù)說(shuō)明:獲取決策樹(shù)的層數(shù)Parameters:myTree - 決策樹(shù) Returns:maxDepth - 決策樹(shù)的層數(shù) """ def getTreeDepth(myTree):maxDepth = 0 #初始化決策樹(shù)深度firstStr = next(iter(myTree)) #python3中myTree.keys()返回的是dict_keys,不在是list,所以不能使用myTree.keys()[0]的方法獲取結(jié)點(diǎn)屬性,可以使用list(myTree.keys())[0]secondDict = myTree[firstStr] #獲取下一個(gè)字典for key in secondDict.keys():if type(secondDict[key]).__name__=='dict': #測(cè)試該結(jié)點(diǎn)是否為字典,如果不是字典,代表此結(jié)點(diǎn)為葉子結(jié)點(diǎn)thisDepth = 1 + getTreeDepth(secondDict[key])else: thisDepth = 1if thisDepth > maxDepth: maxDepth = thisDepth #更新層數(shù)return maxDepth""" 函數(shù)說(shuō)明:繪制結(jié)點(diǎn)Parameters:nodeTxt - 結(jié)點(diǎn)名centerPt - 文本位置parentPt - 標(biāo)注的箭頭位置nodeType - 結(jié)點(diǎn)格式 Returns:無(wú) """ def plotNode(nodeTxt, centerPt, parentPt, nodeType):arrow_args = dict(arrowstyle="<-") #定義箭頭格式font = FontProperties(fname=r"c:\windows\fonts\simsun.ttc", size=14) #設(shè)置中文字體createPlot.ax1.annotate(nodeTxt, xy=parentPt, xycoords='axes fraction', #繪制結(jié)點(diǎn)xytext=centerPt, textcoords='axes fraction',va="center", ha="center", bbox=nodeType, arrowprops=arrow_args, FontProperties=font)""" 函數(shù)說(shuō)明:標(biāo)注有向邊屬性值Parameters:cntrPt、parentPt - 用于計(jì)算標(biāo)注位置txtString - 標(biāo)注的內(nèi)容 Returns:無(wú) """ def plotMidText(cntrPt, parentPt, txtString):xMid = (parentPt[0]-cntrPt[0])/2.0 + cntrPt[0] #計(jì)算標(biāo)注位置 yMid = (parentPt[1]-cntrPt[1])/2.0 + cntrPt[1]createPlot.ax1.text(xMid, yMid, txtString, va="center", ha="center", rotation=30)""" 函數(shù)說(shuō)明:繪制決策樹(shù)Parameters:myTree - 決策樹(shù)(字典)parentPt - 標(biāo)注的內(nèi)容nodeTxt - 結(jié)點(diǎn)名 Returns:無(wú) """ def plotTree(myTree, parentPt, nodeTxt):decisionNode = dict(boxstyle="sawtooth", fc="0.8") #設(shè)置結(jié)點(diǎn)格式leafNode = dict(boxstyle="round4", fc="0.8") #設(shè)置葉結(jié)點(diǎn)格式numLeafs = getNumLeafs(myTree) #獲取決策樹(shù)葉結(jié)點(diǎn)數(shù)目,決定了樹(shù)的寬度depth = getTreeDepth(myTree) #獲取決策樹(shù)層數(shù)firstStr = next(iter(myTree)) #下個(gè)字典 cntrPt = (plotTree.xOff + (1.0 + float(numLeafs))/2.0/plotTree.totalW, plotTree.yOff) #中心位置plotMidText(cntrPt, parentPt, nodeTxt) #標(biāo)注有向邊屬性值plotNode(firstStr, cntrPt, parentPt, decisionNode) #繪制結(jié)點(diǎn)secondDict = myTree[firstStr] #下一個(gè)字典,也就是繼續(xù)繪制子結(jié)點(diǎn)plotTree.yOff = plotTree.yOff - 1.0/plotTree.totalD #y偏移for key in secondDict.keys(): if type(secondDict[key]).__name__=='dict': #測(cè)試該結(jié)點(diǎn)是否為字典,如果不是字典,代表此結(jié)點(diǎn)為葉子結(jié)點(diǎn)plotTree(secondDict[key],cntrPt,str(key)) #不是葉結(jié)點(diǎn),遞歸調(diào)用繼續(xù)繪制else: #如果是葉結(jié)點(diǎn),繪制葉結(jié)點(diǎn),并標(biāo)注有向邊屬性值 plotTree.xOff = plotTree.xOff + 1.0/plotTree.totalWplotNode(secondDict[key], (plotTree.xOff, plotTree.yOff), cntrPt, leafNode)plotMidText((plotTree.xOff, plotTree.yOff), cntrPt, str(key))plotTree.yOff = plotTree.yOff + 1.0/plotTree.totalD""" 函數(shù)說(shuō)明:創(chuàng)建繪制面板Parameters:inTree - 決策樹(shù)(字典) Returns:無(wú) """ def createPlot(inTree):fig = plt.figure(1, facecolor='white') #創(chuàng)建figfig.clf() #清空f(shuō)igaxprops = dict(xticks=[], yticks=[])createPlot.ax1 = plt.subplot(111, frameon=False, **axprops) #去掉x、y軸plotTree.totalW = float(getNumLeafs(inTree)) #獲取決策樹(shù)葉結(jié)點(diǎn)數(shù)目plotTree.totalD = float(getTreeDepth(inTree)) #獲取決策樹(shù)層數(shù)plotTree.xOff = -0.5/plotTree.totalW; plotTree.yOff = 1.0; #x偏移plotTree(inTree, (0.5,1.0), '') #繪制決策樹(shù)plt.show() #顯示繪制結(jié)果 if __name__ == '__main__':dataSet, labels = createDataSet()featLabels = []myTree = createTree(dataSet, labels, featLabels)print(myTree) createPlot(myTree)

1.4.4 決策樹(shù)可視化

# -*- coding: UTF-8 -*- from matplotlib.font_manager import FontProperties import matplotlib.pyplot as plt from math import log import operator""" 函數(shù)說(shuō)明:計(jì)算給定數(shù)據(jù)集的經(jīng)驗(yàn)熵(香農(nóng)熵)Parameters:dataSet - 數(shù)據(jù)集 Returns:shannonEnt - 經(jīng)驗(yàn)熵(香農(nóng)熵)""" def calcShannonEnt(dataSet):numEntires = len(dataSet) #返回?cái)?shù)據(jù)集的行數(shù)labelCounts = {} #保存每個(gè)標(biāo)簽(Label)出現(xiàn)次數(shù)的字典for featVec in dataSet: #對(duì)每組特征向量進(jìn)行統(tǒng)計(jì)currentLabel = featVec[-1] #提取標(biāo)簽(Label)信息if currentLabel not in labelCounts.keys(): #如果標(biāo)簽(Label)沒(méi)有放入統(tǒng)計(jì)次數(shù)的字典,添加進(jìn)去labelCounts[currentLabel] = 0labelCounts[currentLabel] += 1 #Label計(jì)數(shù)shannonEnt = 0.0 #經(jīng)驗(yàn)熵(香農(nóng)熵)for key in labelCounts: #計(jì)算香農(nóng)熵prob = float(labelCounts[key]) / numEntires #選擇該標(biāo)簽(Label)的概率shannonEnt -= prob * log(prob, 2) #利用公式計(jì)算return shannonEnt #返回經(jīng)驗(yàn)熵(香農(nóng)熵)""" 函數(shù)說(shuō)明:創(chuàng)建測(cè)試數(shù)據(jù)集Parameters:無(wú) Returns:dataSet - 數(shù)據(jù)集labels - 特征標(biāo)簽""" def createDataSet():dataSet = [[0, 0, 0, 0, 'no'], #數(shù)據(jù)集[0, 0, 0, 1, 'no'],[0, 1, 0, 1, 'yes'],[0, 1, 1, 0, 'yes'],[0, 0, 0, 0, 'no'],[1, 0, 0, 0, 'no'],[1, 0, 0, 1, 'no'],[1, 1, 1, 1, 'yes'],[1, 0, 1, 2, 'yes'],[1, 0, 1, 2, 'yes'],[2, 0, 1, 2, 'yes'],[2, 0, 1, 1, 'yes'],[2, 1, 0, 1, 'yes'],[2, 1, 0, 2, 'yes'],[2, 0, 0, 0, 'no']]labels = ['年齡', '有工作', '有自己的房子', '信貸情況'] #特征標(biāo)簽return dataSet, labels #返回?cái)?shù)據(jù)集和分類屬性""" 函數(shù)說(shuō)明:按照給定特征劃分?jǐn)?shù)據(jù)集Parameters:dataSet - 待劃分的數(shù)據(jù)集axis - 劃分?jǐn)?shù)據(jù)集的特征value - 需要返回的特征的值 Returns:無(wú)""" def splitDataSet(dataSet, axis, value): retDataSet = [] #創(chuàng)建返回的數(shù)據(jù)集列表for featVec in dataSet: #遍歷數(shù)據(jù)集if featVec[axis] == value:reducedFeatVec = featVec[:axis] #去掉axis特征reducedFeatVec.extend(featVec[axis+1:]) #將符合條件的添加到返回的數(shù)據(jù)集retDataSet.append(reducedFeatVec)return retDataSet #返回劃分后的數(shù)據(jù)集""" 函數(shù)說(shuō)明:選擇最優(yōu)特征Parameters:dataSet - 數(shù)據(jù)集 Returns:bestFeature - 信息增益最大的(最優(yōu))特征的索引值""" def chooseBestFeatureToSplit(dataSet):numFeatures = len(dataSet[0]) - 1 #特征數(shù)量baseEntropy = calcShannonEnt(dataSet) #計(jì)算數(shù)據(jù)集的香農(nóng)熵bestInfoGain = 0.0 #信息增益bestFeature = -1 #最優(yōu)特征的索引值for i in range(numFeatures): #遍歷所有特征#獲取dataSet的第i個(gè)所有特征featList = [example[i] for example in dataSet]uniqueVals = set(featList) #創(chuàng)建set集合{},元素不可重復(fù)newEntropy = 0.0 #經(jīng)驗(yàn)條件熵for value in uniqueVals: #計(jì)算信息增益subDataSet = splitDataSet(dataSet, i, value) #subDataSet劃分后的子集prob = len(subDataSet) / float(len(dataSet)) #計(jì)算子集的概率newEntropy += prob * calcShannonEnt(subDataSet) #根據(jù)公式計(jì)算經(jīng)驗(yàn)條件熵infoGain = baseEntropy - newEntropy #信息增益# print("第%d個(gè)特征的增益為%.3f" % (i, infoGain)) #打印每個(gè)特征的信息增益if (infoGain > bestInfoGain): #計(jì)算信息增益bestInfoGain = infoGain #更新信息增益,找到最大的信息增益bestFeature = i #記錄信息增益最大的特征的索引值return bestFeature #返回信息增益最大的特征的索引值""" 函數(shù)說(shuō)明:統(tǒng)計(jì)classList中出現(xiàn)此處最多的元素(類標(biāo)簽)Parameters:classList - 類標(biāo)簽列表 Returns:sortedClassCount[0][0] - 出現(xiàn)此處最多的元素(類標(biāo)簽)""" def majorityCnt(classList):classCount = {}for vote in classList: #統(tǒng)計(jì)classList中每個(gè)元素出現(xiàn)的次數(shù)if vote not in classCount.keys():classCount[vote] = 0 classCount[vote] += 1sortedClassCount = sorted(classCount.items(), key = operator.itemgetter(1), reverse = True) #根據(jù)字典的值降序排序return sortedClassCount[0][0] #返回classList中出現(xiàn)次數(shù)最多的元素""" 函數(shù)說(shuō)明:創(chuàng)建決策樹(shù)Parameters:dataSet - 訓(xùn)練數(shù)據(jù)集labels - 分類屬性標(biāo)簽featLabels - 存儲(chǔ)選擇的最優(yōu)特征標(biāo)簽 Returns:myTree - 決策樹(shù)""" def createTree(dataSet, labels, featLabels):classList = [example[-1] for example in dataSet] #取分類標(biāo)簽(是否放貸:yes or no)if classList.count(classList[0]) == len(classList): #如果類別完全相同則停止繼續(xù)劃分return classList[0]if len(dataSet[0]) == 1: #遍歷完所有特征時(shí)返回出現(xiàn)次數(shù)最多的類標(biāo)簽return majorityCnt(classList)bestFeat = chooseBestFeatureToSplit(dataSet) #選擇最優(yōu)特征bestFeatLabel = labels[bestFeat] #最優(yōu)特征的標(biāo)簽featLabels.append(bestFeatLabel)myTree = {bestFeatLabel:{}} #根據(jù)最優(yōu)特征的標(biāo)簽生成樹(shù)del(labels[bestFeat]) #刪除已經(jīng)使用特征標(biāo)簽featValues = [example[bestFeat] for example in dataSet] #得到訓(xùn)練集中所有最優(yōu)特征的屬性值uniqueVals = set(featValues) #去掉重復(fù)的屬性值for value in uniqueVals: #遍歷特征,創(chuàng)建決策樹(shù)。 myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value), labels, featLabels)return myTree""" 函數(shù)說(shuō)明:獲取決策樹(shù)葉子結(jié)點(diǎn)的數(shù)目Parameters:myTree - 決策樹(shù) Returns:numLeafs - 決策樹(shù)的葉子結(jié)點(diǎn)的數(shù)目""" def getNumLeafs(myTree):numLeafs = 0 #初始化葉子firstStr = next(iter(myTree)) #python3中myTree.keys()返回的是dict_keys,不在是list,所以不能使用myTree.keys()[0]的方法獲取結(jié)點(diǎn)屬性,可以使用list(myTree.keys())[0]secondDict = myTree[firstStr] #獲取下一組字典for key in secondDict.keys():if type(secondDict[key]).__name__=='dict': #測(cè)試該結(jié)點(diǎn)是否為字典,如果不是字典,代表此結(jié)點(diǎn)為葉子結(jié)點(diǎn)numLeafs += getNumLeafs(secondDict[key])else: numLeafs +=1return numLeafs""" 函數(shù)說(shuō)明:獲取決策樹(shù)的層數(shù)Parameters:myTree - 決策樹(shù) Returns:maxDepth - 決策樹(shù)的層數(shù)""" def getTreeDepth(myTree):maxDepth = 0 #初始化決策樹(shù)深度firstStr = next(iter(myTree)) #python3中myTree.keys()返回的是dict_keys,不在是list,所以不能使用myTree.keys()[0]的方法獲取結(jié)點(diǎn)屬性,可以使用list(myTree.keys())[0]secondDict = myTree[firstStr] #獲取下一個(gè)字典for key in secondDict.keys():if type(secondDict[key]).__name__=='dict': #測(cè)試該結(jié)點(diǎn)是否為字典,如果不是字典,代表此結(jié)點(diǎn)為葉子結(jié)點(diǎn)thisDepth = 1 + getTreeDepth(secondDict[key])else: thisDepth = 1if thisDepth > maxDepth: maxDepth = thisDepth #更新層數(shù)return maxDepth""" 函數(shù)說(shuō)明:繪制結(jié)點(diǎn)Parameters:nodeTxt - 結(jié)點(diǎn)名centerPt - 文本位置parentPt - 標(biāo)注的箭頭位置nodeType - 結(jié)點(diǎn)格式 Returns:無(wú)""" def plotNode(nodeTxt, centerPt, parentPt, nodeType):arrow_args = dict(arrowstyle="<-") #定義箭頭格式font = FontProperties(fname=r"c:\windows\fonts\simsun.ttc", size=14) #設(shè)置中文字體createPlot.ax1.annotate(nodeTxt, xy=parentPt, xycoords='axes fraction', #繪制結(jié)點(diǎn)xytext=centerPt, textcoords='axes fraction',va="center", ha="center", bbox=nodeType, arrowprops=arrow_args, FontProperties=font)""" 函數(shù)說(shuō)明:標(biāo)注有向邊屬性值Parameters:cntrPt、parentPt - 用于計(jì)算標(biāo)注位置txtString - 標(biāo)注的內(nèi)容 Returns:無(wú)""" def plotMidText(cntrPt, parentPt, txtString):xMid = (parentPt[0]-cntrPt[0])/2.0 + cntrPt[0] #計(jì)算標(biāo)注位置 yMid = (parentPt[1]-cntrPt[1])/2.0 + cntrPt[1]createPlot.ax1.text(xMid, yMid, txtString, va="center", ha="center", rotation=30)""" 函數(shù)說(shuō)明:繪制決策樹(shù)Parameters:myTree - 決策樹(shù)(字典)parentPt - 標(biāo)注的內(nèi)容nodeTxt - 結(jié)點(diǎn)名 Returns:無(wú)""" def plotTree(myTree, parentPt, nodeTxt):decisionNode = dict(boxstyle="sawtooth", fc="0.8") #設(shè)置結(jié)點(diǎn)格式leafNode = dict(boxstyle="round4", fc="0.8") #設(shè)置葉結(jié)點(diǎn)格式numLeafs = getNumLeafs(myTree) #獲取決策樹(shù)葉結(jié)點(diǎn)數(shù)目,決定了樹(shù)的寬度depth = getTreeDepth(myTree) #獲取決策樹(shù)層數(shù)firstStr = next(iter(myTree)) #下個(gè)字典 cntrPt = (plotTree.xOff + (1.0 + float(numLeafs))/2.0/plotTree.totalW, plotTree.yOff) #中心位置plotMidText(cntrPt, parentPt, nodeTxt) #標(biāo)注有向邊屬性值plotNode(firstStr, cntrPt, parentPt, decisionNode) #繪制結(jié)點(diǎn)secondDict = myTree[firstStr] #下一個(gè)字典,也就是繼續(xù)繪制子結(jié)點(diǎn)plotTree.yOff = plotTree.yOff - 1.0/plotTree.totalD #y偏移for key in secondDict.keys(): if type(secondDict[key]).__name__=='dict': #測(cè)試該結(jié)點(diǎn)是否為字典,如果不是字典,代表此結(jié)點(diǎn)為葉子結(jié)點(diǎn)plotTree(secondDict[key],cntrPt,str(key)) #不是葉結(jié)點(diǎn),遞歸調(diào)用繼續(xù)繪制else: #如果是葉結(jié)點(diǎn),繪制葉結(jié)點(diǎn),并標(biāo)注有向邊屬性值 plotTree.xOff = plotTree.xOff + 1.0/plotTree.totalWplotNode(secondDict[key], (plotTree.xOff, plotTree.yOff), cntrPt, leafNode)plotMidText((plotTree.xOff, plotTree.yOff), cntrPt, str(key))plotTree.yOff = plotTree.yOff + 1.0/plotTree.totalD""" 函數(shù)說(shuō)明:創(chuàng)建繪制面板Parameters:inTree - 決策樹(shù)(字典) Returns:無(wú)""" def createPlot(inTree):fig = plt.figure(1, facecolor='white') #創(chuàng)建figfig.clf() #清空f(shuō)igaxprops = dict(xticks=[], yticks=[])createPlot.ax1 = plt.subplot(111, frameon=False, **axprops) #去掉x、y軸plotTree.totalW = float(getNumLeafs(inTree)) #獲取決策樹(shù)葉結(jié)點(diǎn)數(shù)目plotTree.totalD = float(getTreeDepth(inTree)) #獲取決策樹(shù)層數(shù)plotTree.xOff = -0.5/plotTree.totalW; plotTree.yOff = 1.0; #x偏移plotTree(inTree, (0.5,1.0), '') #繪制決策樹(shù)plt.show() #顯示繪制結(jié)果 if __name__ == '__main__':dataSet, labels = createDataSet()featLabels = []myTree = createTree(dataSet, labels, featLabels)print(myTree) createPlot(myTree)

1.4.5決策樹(shù)執(zhí)行分類

# -*- coding: UTF-8 -*- from math import log import operator""" 函數(shù)說(shuō)明:計(jì)算給定數(shù)據(jù)集的經(jīng)驗(yàn)熵(香農(nóng)熵)Parameters:dataSet - 數(shù)據(jù)集 Returns:shannonEnt - 經(jīng)驗(yàn)熵(香農(nóng)熵)""" def calcShannonEnt(dataSet):numEntires = len(dataSet) #返回?cái)?shù)據(jù)集的行數(shù)labelCounts = {} #保存每個(gè)標(biāo)簽(Label)出現(xiàn)次數(shù)的字典for featVec in dataSet: #對(duì)每組特征向量進(jìn)行統(tǒng)計(jì)currentLabel = featVec[-1] #提取標(biāo)簽(Label)信息if currentLabel not in labelCounts.keys(): #如果標(biāo)簽(Label)沒(méi)有放入統(tǒng)計(jì)次數(shù)的字典,添加進(jìn)去labelCounts[currentLabel] = 0labelCounts[currentLabel] += 1 #Label計(jì)數(shù)shannonEnt = 0.0 #經(jīng)驗(yàn)熵(香農(nóng)熵)for key in labelCounts: #計(jì)算香農(nóng)熵prob = float(labelCounts[key]) / numEntires #選擇該標(biāo)簽(Label)的概率shannonEnt -= prob * log(prob, 2) #利用公式計(jì)算return shannonEnt #返回經(jīng)驗(yàn)熵(香農(nóng)熵)""" 函數(shù)說(shuō)明:創(chuàng)建測(cè)試數(shù)據(jù)集Parameters:無(wú) Returns:dataSet - 數(shù)據(jù)集labels - 特征標(biāo)簽""" def createDataSet():dataSet = [[0, 0, 0, 0, 'no'], #數(shù)據(jù)集[0, 0, 0, 1, 'no'],[0, 1, 0, 1, 'yes'],[0, 1, 1, 0, 'yes'],[0, 0, 0, 0, 'no'],[1, 0, 0, 0, 'no'],[1, 0, 0, 1, 'no'],[1, 1, 1, 1, 'yes'],[1, 0, 1, 2, 'yes'],[1, 0, 1, 2, 'yes'],[2, 0, 1, 2, 'yes'],[2, 0, 1, 1, 'yes'],[2, 1, 0, 1, 'yes'],[2, 1, 0, 2, 'yes'],[2, 0, 0, 0, 'no']]labels = ['年齡', '有工作', '有自己的房子', '信貸情況'] #特征標(biāo)簽return dataSet, labels #返回?cái)?shù)據(jù)集和分類屬性""" 函數(shù)說(shuō)明:按照給定特征劃分?jǐn)?shù)據(jù)集Parameters:dataSet - 待劃分的數(shù)據(jù)集axis - 劃分?jǐn)?shù)據(jù)集的特征value - 需要返回的特征的值 Returns:無(wú)""" def splitDataSet(dataSet, axis, value): retDataSet = [] #創(chuàng)建返回的數(shù)據(jù)集列表for featVec in dataSet: #遍歷數(shù)據(jù)集if featVec[axis] == value:reducedFeatVec = featVec[:axis] #去掉axis特征reducedFeatVec.extend(featVec[axis+1:]) #將符合條件的添加到返回的數(shù)據(jù)集retDataSet.append(reducedFeatVec)return retDataSet #返回劃分后的數(shù)據(jù)集""" 函數(shù)說(shuō)明:選擇最優(yōu)特征Parameters:dataSet - 數(shù)據(jù)集 Returns:bestFeature - 信息增益最大的(最優(yōu))特征的索引值""" def chooseBestFeatureToSplit(dataSet):numFeatures = len(dataSet[0]) - 1 #特征數(shù)量baseEntropy = calcShannonEnt(dataSet) #計(jì)算數(shù)據(jù)集的香農(nóng)熵bestInfoGain = 0.0 #信息增益bestFeature = -1 #最優(yōu)特征的索引值for i in range(numFeatures): #遍歷所有特征#獲取dataSet的第i個(gè)所有特征featList = [example[i] for example in dataSet]uniqueVals = set(featList) #創(chuàng)建set集合{},元素不可重復(fù)newEntropy = 0.0 #經(jīng)驗(yàn)條件熵for value in uniqueVals: #計(jì)算信息增益subDataSet = splitDataSet(dataSet, i, value) #subDataSet劃分后的子集prob = len(subDataSet) / float(len(dataSet)) #計(jì)算子集的概率newEntropy += prob * calcShannonEnt(subDataSet) #根據(jù)公式計(jì)算經(jīng)驗(yàn)條件熵infoGain = baseEntropy - newEntropy #信息增益# print("第%d個(gè)特征的增益為%.3f" % (i, infoGain)) #打印每個(gè)特征的信息增益if (infoGain > bestInfoGain): #計(jì)算信息增益bestInfoGain = infoGain #更新信息增益,找到最大的信息增益bestFeature = i #記錄信息增益最大的特征的索引值return bestFeature #返回信息增益最大的特征的索引值""" 函數(shù)說(shuō)明:統(tǒng)計(jì)classList中出現(xiàn)此處最多的元素(類標(biāo)簽)Parameters:classList - 類標(biāo)簽列表 Returns:sortedClassCount[0][0] - 出現(xiàn)此處最多的元素(類標(biāo)簽)""" def majorityCnt(classList):classCount = {}for vote in classList: #統(tǒng)計(jì)classList中每個(gè)元素出現(xiàn)的次數(shù)if vote not in classCount.keys():classCount[vote] = 0 classCount[vote] += 1sortedClassCount = sorted(classCount.items(), key = operator.itemgetter(1), reverse = True) #根據(jù)字典的值降序排序return sortedClassCount[0][0] #返回classList中出現(xiàn)次數(shù)最多的元素""" 函數(shù)說(shuō)明:創(chuàng)建決策樹(shù)Parameters:dataSet - 訓(xùn)練數(shù)據(jù)集labels - 分類屬性標(biāo)簽featLabels - 存儲(chǔ)選擇的最優(yōu)特征標(biāo)簽 Returns:myTree - 決策樹(shù)""" def createTree(dataSet, labels, featLabels):classList = [example[-1] for example in dataSet] #取分類標(biāo)簽(是否放貸:yes or no)if classList.count(classList[0]) == len(classList): #如果類別完全相同則停止繼續(xù)劃分return classList[0]if len(dataSet[0]) == 1: #遍歷完所有特征時(shí)返回出現(xiàn)次數(shù)最多的類標(biāo)簽return majorityCnt(classList)bestFeat = chooseBestFeatureToSplit(dataSet) #選擇最優(yōu)特征bestFeatLabel = labels[bestFeat] #最優(yōu)特征的標(biāo)簽featLabels.append(bestFeatLabel)myTree = {bestFeatLabel:{}} #根據(jù)最優(yōu)特征的標(biāo)簽生成樹(shù)del(labels[bestFeat]) #刪除已經(jīng)使用特征標(biāo)簽featValues = [example[bestFeat] for example in dataSet] #得到訓(xùn)練集中所有最優(yōu)特征的屬性值uniqueVals = set(featValues) #去掉重復(fù)的屬性值for value in uniqueVals: #遍歷特征,創(chuàng)建決策樹(shù)。 myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value), labels, featLabels)return myTree""" 函數(shù)說(shuō)明:使用決策樹(shù)分類Parameters:inputTree - 已經(jīng)生成的決策樹(shù)featLabels - 存儲(chǔ)選擇的最優(yōu)特征標(biāo)簽testVec - 測(cè)試數(shù)據(jù)列表,順序?qū)?yīng)最優(yōu)特征標(biāo)簽 Returns:classLabel - 分類結(jié)果""" def classify(inputTree, featLabels, testVec):firstStr = next(iter(inputTree)) #獲取決策樹(shù)結(jié)點(diǎn)secondDict = inputTree[firstStr] #下一個(gè)字典featIndex = featLabels.index(firstStr) for key in secondDict.keys():if testVec[featIndex] == key:if type(secondDict[key]).__name__ == 'dict':classLabel = classify(secondDict[key], featLabels, testVec)else: classLabel = secondDict[key]return classLabelif __name__ == '__main__':dataSet, labels = createDataSet()featLabels = []myTree = createTree(dataSet, labels, featLabels)testVec = [0,1] #測(cè)試數(shù)據(jù)result = classify(myTree, featLabels, testVec)if result == 'yes':print('放貸')if result == 'no':print('不放貸')

2.Sklearn–使用決策樹(shù)預(yù)測(cè)隱形眼鏡類型

Label的類型是age(年齡)、prescript(癥狀)、astigmatic(是否散光)、tearRate(眼淚數(shù)量)、class(最終分類)

2.1 Sklearn決策樹(shù)代碼

# -*- coding: UTF-8 -*- from sklearn.preprocessing import LabelEncoder, OneHotEncoder from sklearn.externals.six import StringIO from sklearn import tree import pandas as pd import numpy as np import pydotplusif __name__ == '__main__':with open('lenses.txt', 'r') as fr: #加載文件lenses = [inst.strip().split('\t') for inst in fr.readlines()] #處理文件lenses_target = [] #提取每組數(shù)據(jù)的類別,保存在列表里for each in lenses:lenses_target.append(each[-1])print(lenses_target)lensesLabels = ['age', 'prescript', 'astigmatic', 'tearRate'] #特征標(biāo)簽 lenses_list = [] #保存lenses數(shù)據(jù)的臨時(shí)列表lenses_dict = {} #保存lenses數(shù)據(jù)的字典,用于生成pandasfor each_label in lensesLabels: #提取信息,生成字典for each in lenses:lenses_list.append(each[lensesLabels.index(each_label)])lenses_dict[each_label] = lenses_listlenses_list = []# print(lenses_dict) #打印字典信息lenses_pd = pd.DataFrame(lenses_dict) #生成pandas.DataFrame# print(lenses_pd) #打印pandas.DataFramele = LabelEncoder() #創(chuàng)建LabelEncoder()對(duì)象,用于序列化 for col in lenses_pd.columns: #序列化lenses_pd[col] = le.fit_transform(lenses_pd[col])# print(lenses_pd) #打印編碼信息clf = tree.DecisionTreeClassifier(max_depth = 4) #創(chuàng)建DecisionTreeClassifier()類clf = clf.fit(lenses_pd.values.tolist(), lenses_target) #使用數(shù)據(jù),構(gòu)建決策樹(shù)dot_data = StringIO()tree.export_graphviz(clf, out_file = dot_data, #繪制決策樹(shù)feature_names = lenses_pd.keys(),class_names = clf.classes_,filled=True, rounded=True,special_characters=True)graph = pydotplus.graph_from_dot_data(dot_data.getvalue())graph.write_pdf("tree.pdf") #保存繪制好的決策樹(shù),以PDF的形式存儲(chǔ)。

3.總結(jié)

決策樹(shù)的一些優(yōu)點(diǎn):

  • 易于理解和解釋,決策樹(shù)可以可視化。
  • 幾乎不需要數(shù)據(jù)預(yù)處理。其他方法經(jīng)常需要數(shù)據(jù)標(biāo)準(zhǔn)化,創(chuàng)建虛擬變量和刪除缺失值。決策樹(shù)還不支持缺失值。
  • 使用樹(shù)的花費(fèi)(例如預(yù)測(cè)數(shù)據(jù))是訓(xùn)練數(shù)據(jù)點(diǎn)(data points)數(shù)量的對(duì)數(shù)。
  • 可以同時(shí)處理數(shù)值變量和分類變量。其他方法大都適用于分析一種變量的集合。
  • 可以處理多值輸出變量問(wèn)題。
  • 使用白盒模型。如果一個(gè)情況被觀察到,使用邏輯判斷容易表示這種規(guī)則。相反,如果是黑盒模型(例如人工神經(jīng)網(wǎng)絡(luò)),結(jié)果會(huì)非常難解釋。
  • 即使對(duì)真實(shí)模型來(lái)說(shuō),假設(shè)無(wú)效的情況下,也可以較好的適用。

決策樹(shù)的一些缺點(diǎn):

  • 決策樹(shù)學(xué)習(xí)可能創(chuàng)建一個(gè)過(guò)于復(fù)雜的樹(shù),并不能很好的預(yù)測(cè)數(shù)據(jù)。也就是過(guò)擬合。修剪機(jī)制(現(xiàn)在不支持),設(shè)置一個(gè)葉子節(jié)點(diǎn)需要的最小樣本數(shù)量,或者數(shù)的最大深度,可以避免過(guò)擬合。
  • 決策樹(shù)可能是不穩(wěn)定的,因?yàn)榧词狗浅P〉淖儺?#xff0c;可能會(huì)產(chǎn)生一顆完全不同的樹(shù)。這個(gè)問(wèn)題通過(guò)decision trees with an ensemble來(lái)緩解。
  • 學(xué)習(xí)一顆最優(yōu)的決策樹(shù)是一個(gè)NP-完全問(wèn)題under several aspects of optimality and even for simple concepts。因此,傳統(tǒng)決策樹(shù)算法基于啟發(fā)式算法,例如貪婪算法,即每個(gè)節(jié)點(diǎn)創(chuàng)建最優(yōu)決策。這些算法不能產(chǎn)生一個(gè)全家最優(yōu)的決策樹(shù)。對(duì)樣本和特征隨機(jī)抽樣可以降低整體效果偏差。
  • 概念難以學(xué)習(xí),因?yàn)闆Q策樹(shù)沒(méi)有很好的解釋他們,例如,XOR, parity or multiplexer problems.
  • 如果某些分類占優(yōu)勢(shì),決策樹(shù)將會(huì)創(chuàng)建一棵有偏差的樹(shù)。因此,建議在訓(xùn)練之前,先抽樣使樣本均衡。

總結(jié)

以上是生活随笔為你收集整理的机器学习实战--决策树算法的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

www.玖玖玖 | 国产视频在 | 成人羞羞视频在线观看免费 | 婷婷播播网 | av网站手机在线观看 | 伊人影院在线观看 | 天天色天天操天天爽 | 欧美日韩在线第一页 | 久久精品精品电影网 | 久久乐九色婷婷综合色狠狠182 | 精品五月天 | 欧美人交a欧美精品 | 999免费视频 | 国产美腿白丝袜足在线av | 在线精品亚洲一区二区 | 91日韩精品视频 | av综合 日韩| 麻豆国产精品一区二区三区 | 亚洲精品国偷拍自产在线观看蜜桃 | 天天综合色 | 欧美精品久久久久久久久久丰满 | 久久视频精品在线观看 | 日韩二区在线观看 | 色婷婷播放 | 一级成人网 | 黄色免费视频在线观看 | 天天色宗合 | 亚洲年轻女教师毛茸茸 | 久久99国产精品自在自在app | 黄在线免费看 | 免费看片成人 | 在线 视频 一区二区 | 日韩电影中文字幕在线观看 | 韩国av三级 | 又色又爽又激情的59视频 | 久久草视频 | 99精品系列 | 亚洲精品欧美成人 | 97在线观看免费高清完整版在线观看 | 久久影院亚洲 | 亚洲视频h | 日韩精品久久久免费观看夜色 | av片无限看 | 色爱区综合激月婷婷 | 手机成人免费视频 | 久久久亚洲电影 | 色鬼综合网 | 久久精品视频国产 | 国产小视频免费在线观看 | 久久久久久久久久久成人 | 欧美性久久久 | 亚洲精品xxx | 色姑娘综合 | 黄av免费 | 免费在线a| 免费在线激情视频 | 人人艹视频 | 色美女在线 | 国产一区二区中文字幕 | 91av视频网| 999在线视频| a黄色一级| 成人在线观看资源 | 草免费视频 | 国产毛片久久久 | 久久男人视频 | 久久久久久久久久免费视频 | 99爱精品在线| 97在线观看免费观看 | 国产中文字幕一区二区 | 国产在线va | 日韩久久精品 | 99久久国产免费,99久久国产免费大片 | 亚洲精品在线观看的 | 午夜视频在线观看一区二区三区 | 国产精品一区二区三区免费看 | 国产成人综合图片 | 久久免费毛片视频 | 久久99视频免费 | 色婷婷狠狠操 | 欧美超碰在线 | 欧美日本一二三 | 欧美日韩视频精品 | 综合五月 | 久久久久久精 | 免费网站看av片 | 蜜臀aⅴ国产精品久久久国产 | 超级碰99| 亚洲精品视频在线免费 | 国产精品99久久久久的智能播放 | 久久久久久久久久久久99 | 九九热只有精品 | 午夜黄色一级片 | 黄色在线观看免费 | 国产精品24小时在线观看 | 在线一区观看 | 五月婷婷av | 欧美一区免费在线观看 | 久久亚洲电影 | 亚洲综合成人av | 日韩欧美一区二区三区黑寡妇 | 日韩三级在线观看 | 超碰激情在线 | 国产伦精品一区二区三区无广告 | 玖玖999 | 中文字幕在线免费 | 欧美国产精品久久久久久免费 | 欧美成人黄色 | 日韩欧美网址 | 美女视频黄免费网站 | 欧美一级电影免费观看 | 国产在线视频一区 | 黄色小说网站在线 | av电影在线免费观看 | 成人免费视频播放 | 国产精品2019 | 天天五月天色 | 久久看片 | 一级免费片 | 亚洲第一中文网 | 丁香激情综合国产 | 国产在线精品国自产拍影院 | 欧美激情片在线观看 | 日日添夜夜添 | 欧美肥妇free | 蜜臀aⅴ精品一区二区三区 久久视屏网 | 国产精品综合久久久久 | 在线一二三区 | 国产免费叼嘿网站免费 | 一区二区高清在线 | 九九热有精品 | 久免费视频 | 国产色区| 91精品久久久久久综合乱菊 | 亚洲免费成人av电影 | 香蕉视频在线观看免费 | 97成人资源站 | 黄色软件视频网站 | 91看片淫黄大片在线播放 | 日韩系列在线观看 | 亚洲美女在线一区 | 国产99免费视频 | 日日夜夜狠狠干 | 欧美色精品天天在线观看视频 | av成人动漫在线观看 | 久久精品国产美女 | 日韩无在线 | 五月婷婷综合网 | 91色偷偷 | 91精品啪在线观看国产线免费 | 91色影院 | 91精品国产电影 | 成人av av在线 | 国产色婷婷在线 | 亚洲精品久久久久www | 福利在线看片 | 久久综合五月 | 欧美一级乱黄 | 天堂av色婷婷一区二区三区 | 97超碰免费 | 国产免费久久久久 | 亚洲在线不卡 | 亚洲夜夜网 | 最近中文字幕国语免费av | 国产精品久久久久久久久久免费看 | 色婷婷色| 69绿帽绿奴3pvideos | 久久人人爽人人人人片 | 五月婷婷中文字幕 | 国产亚洲精品久久久久5区 成人h电影在线观看 | 手机在线永久免费观看av片 | 色视频在线 | 91成年人网站 | 色丁香综合| 婷婷色中文字幕 | 日狠狠 | 精品无人国产偷自产在线 | 人人澡人人舔 | 国产极品尤物在线 | 国产精品久久久久久久久毛片 | 亚洲草视频| 欧美大片在线观看一区 | 欧美日韩一级视频 | 色婷婷亚洲 | 97超碰人人看 | 日韩在线免费看 | 91在线观看欧美日韩 | 992tv在线成人免费观看 | 人人超碰免费 | 特级西西444www大精品视频免费看 | www.成人精品 | 激情五月看片 | 欧美在线久久 | 天天操综合网站 | 日韩免费一区二区在线观看 | 国产91九色视频 | 毛片a级片 | 久久国产欧美日韩精品 | 久草综合在线 | 久久成人在线 | 人人插人人爱 | 91精品对白一区国产伦 | 香蕉视频导航 | 久草在线看片 | 麻豆视频在线免费 | 国产不卡在线观看 | 亚洲高清色综合 | 在线国产日本 | 亚洲伦理精品 | sm免费xx网站 | 色综合天天在线 | 91在线在线观看 | 国内外激情视频 | 丝袜足交在线 | 99视频在线播放 | 精品久久久久久久久久岛国gif | 超碰久热 | 麻豆视频免费入口 | 国产综合香蕉五月婷在线 | 天天碰天天操视频 | 国产美女被啪进深处喷白浆视频 | 成年人免费在线观看网站 | 午夜精品一区二区三区免费 | 国产在线观看高清视频 | 亚洲狠狠丁香婷婷综合久久久 | 久久精品牌麻豆国产大山 | 日韩精品欧美视频 | 日韩av高清 | 久久综合久久综合这里只有精品 | 国产精品久久久久影视 | 国产91亚洲精品 | 成人久久久精品国产乱码一区二区 | 精品国产欧美一区二区 | 亚洲欧美国产日韩在线观看 | 亚洲精品乱码久久久一二三 | 丁香五香天综合情 | 久久久久免费 | www.五月天| 亚洲精品国产精品久久99热 | 久久久精品影视 | av在线a | 视频91在线 | 色综合久久久久久中文网 | 国产一区在线视频播放 | 国产淫片免费看 | 欧美色图亚洲图片 | 婷婷丁香七月 | 色综合久久久久久久久五月 | 亚洲一级在线观看 | 精品国产伦一区二区三区 | 四虎最新入口 | 四虎成人精品永久免费av | 欧美一级乱黄 | 日韩a在线| 亚洲一区免费在线 | 九九热精品国产 | 在线观看一 | 国产美女网 | 久久久久日本精品一区二区三区 | 五月天婷亚洲天综合网鲁鲁鲁 | 久艹视频免费观看 | 精品一区二区三区香蕉蜜桃 | 久久男人影院 | 韩国三级一区 | 国产日产高清dvd碟片 | 91桃色在线播放 | 色午夜影院| 亚洲乱码中文字幕综合 | 亚洲欧洲精品在线 | 在线观看911视频 | 国产精品久久久久婷婷 | 99久久www| 狠狠地日| 国内精品久久久久 | 中文字幕第| 免费高清无人区完整版 | 丰满少妇在线观看 | 国产一级不卡视频 | 日本精品中文字幕 | www.888.av| 日日夜夜中文字幕 | 免费高清无人区完整版 | h动漫中文字幕 | 香蕉视频在线观看免费 | 欧美精品在线一区 | 丝袜+亚洲+另类+欧美+变态 | 黄色在线观看污 | 伊人www22综合色 | 激情五月色播五月 | 日本久久久精品视频 | 精品96久久久久久中文字幕无 | 国产美女被啪进深处喷白浆视频 | 色wwww| 国产精品麻豆果冻传媒在线播放 | 在线看一区二区 | 色www精品视频在线观看 | 欧美精品乱码久久久久久 | 日韩视频专区 | 久久成人麻豆午夜电影 | 伊人小视频| 三级性生活视频 | 在线av资源 | 91精品国产高清自在线观看 | 中文字幕电影一区 | 国产美女无遮挡永久免费 | 亚洲精品在 | 天堂网一区二区三区 | 中文字幕在线中文 | 91色一区二区三区 | 欧美日韩在线观看不卡 | 国产精品久久久久9999 | 久久久久国产精品厨房 | 国产自产高清不卡 | 国产一区免费视频 | 国产偷国产偷亚洲清高 | 欧美成人基地 | 免费在线观看黄网站 | 国产亚洲精品久久 | 久草久草久草久草 | 婷婷久久婷婷 | 综合av在线 | 超碰97久久| 久久开心激情 | 亚洲精品在线免费 | 在线观看 国产 | 国产精品综合久久久 | 免费视频久久久久久久 | 99热国产在线观看 | 精品一区 精品二区 | 国产高清视频在线 | 国产精品麻豆99久久久久久 | 胖bbbb搡bbbb擦bbbb| 精品国产一区二区三区噜噜噜 | 欧美国产日韩一区二区 | 久久国产a | 日韩高清 一区 | 黄网站免费大全入口 | 蜜臀av性久久久久蜜臀aⅴ四虎 | 四虎成人精品永久免费av九九 | 久久久国产精品网站 | 日韩av网站在线播放 | 天天射天天色天天干 | 色综合久久久久综合 | 91中文字幕在线 | 日韩视频中文字幕在线观看 | 精品久久99 | 99久久久国产精品免费观看 | av一级免费| 亚洲精色 | 黄色小说视频网站 | 久久久久一区二区三区四区 | 99久视频 | 在线观看成年人 | 亚洲精品乱码久久久久久蜜桃欧美 | 国产精品久久一卡二卡 | 中文字幕视频 | 91探花国产综合在线精品 | 麻豆视频在线看 | 免费精品国产 | 97热在线观看| www.天天综合 | 色婷婷在线播放 | 久久综合久久综合九色 | 亚洲无吗av| 国产精品久久久久免费a∨ 欧美一级性生活片 | 在线成人一区二区 | 精品视频123区在线观看 | 成年人看片网站 | 成人sm另类专区 | 在线v片免费观看视频 | 一区二区三区电影 | 国产又粗又长的视频 | a√天堂资源 | 天天色天天色天天色 | 久久影视中文字幕 | 中文伊人| 在线天堂v | 激情五月播播久久久精品 | 精品久久亚洲 | 黄色网中文字幕 | 国产精选在线 | 亚洲国产精品成人综合 | 人人干在线| 国产美女精品 | 在线综合 亚洲 欧美在线视频 | 中文av字幕在线观看 | 天天天干| 亚洲天堂网在线播放 | 国产一级黄色av | av解说在线 | www在线免费观看 | 亚洲成人av在线播放 | 高清不卡毛片 | 免费成人av在线 | 久久黄色小说视频 | 日韩一级黄色片 | 婷婷在线视频 | 中文字幕av一区二区三区四区 | 亚洲精品欧美专区 | 亚洲高清精品在线 | 久久成人国产精品免费软件 | 一级性av| 中文字幕日韩有码 | 久久久香蕉视频 | 国产精品久久久久久模特 | 亚洲精品午夜视频 | 成人欧美一区二区三区黑人麻豆 | 中文字幕永久免费 | 亚洲乱码久久久 | www.亚洲精品 | 亚洲最大av在线播放 | 国产成人精品一区在线 | 在线观看视频一区二区 | 日韩精品视频免费在线观看 | 一区二区三区精品在线视频 | 久久久久久久久久久免费av | 成人黄色电影视频 | 中文字幕一区二区三区乱码不卡 | 国产综合精品一区二区三区 | 日韩免费在线观看网站 | 永久免费在线 | 国产一级黄 | 国产 日韩 在线 亚洲 字幕 中文 | 国产又粗又长又硬免费视频 | 久久在线 | 国产99在线免费 | 亚洲精品1区2区3区 超碰成人网 | 69中文字幕| 国产午夜激情视频 | 成年人在线免费看片 | 国产视频在线播放 | 亚洲天天草 | 网站在线观看你们懂的 | 日韩av电影免费观看 | 99精品毛片| 97人人爽人人 | 欧美一进一出抽搐大尺度视频 | 国产精品18久久久久久vr | 久久亚洲精品电影 | 2019精品手机国产品在线 | 香蕉视频在线免费 | 西西444www | 99精品视频网站 | 中文字幕中文字幕在线一区 | 狠狠躁夜夜av| 久久这里只有精品首页 | 日韩成片 | 色综合天天射 | 日韩高清精品免费观看 | 久久精品美女 | 啪啪肉肉污av国网站 | 国内成人精品视频 | 波多野结衣视频网址 | 在线视频福利 | 99在线观看免费视频精品观看 | 国产精品18久久久久白浆 | 国产精品成人自产拍在线观看 | 四虎成人精品永久免费av九九 | 成人免费观看大片 | 亚洲成年人免费网站 | 久久久久久激情 | 国产黄色精品视频 | 亚洲精品久久久久www | 91精品久久久久久 | 国产精品久久久久久久久久久久 | 91片黄在线观看 | 欧美激情视频久久 | 91精品久久香蕉国产线看观看 | 人人射人人射 | 五月的婷婷 | 久久av网 | 成人黄色在线电影 | 在线国产小视频 | 国产一级免费播放 | 国产精品一区二区三区四区在线观看 | 天天视频色版 | 国产美女网站在线观看 | 99在线免费观看视频 | 超碰午夜 | sm免费xx网站 | 在线观看aaa| 国产精品1区2区 | 欧美极品xxx | 亚洲成人软件 | 婷婷综合网 | 亚洲综合一区二区精品导航 | 婷婷综合电影 | 精品久久一| 精品国产精品国产偷麻豆 | 国产精品久久久久四虎 | 超碰人人超 | 久久精品成人欧美大片古装 | 午夜精品久久久久久久99无限制 | 亚洲欧美日韩一二三区 | 日本公乱妇视频 | 中文字幕av专区 | 98福利在线| 精品免费在线视频 | 黄色免费大全 | 国产又粗又猛又爽又黄的视频免费 | 午夜精品电影一区二区在线 | 天天操天天摸天天爽 | 国产精品久久一区二区三区不卡 | 手机av在线不卡 | 中文字幕色在线视频 | 亚洲精品影视在线观看 | 国产精品区二区三区日本 | 日本99热 | 国产成人a亚洲精品 | 欧美久久电影 | 国内精品久久久久久久 | 国产精品免费观看网站 | 91精品一区二区三区久久久久久 | 国产不卡一区二区视频 | 天天草天天干天天射 | 9999亚洲 | 91在线视频免费91 | 伊人资源视频在线 | 亚洲精品视频在线免费播放 | 亚洲国产免费网站 | 亚洲综合视频在线 | 国产美女搞久久 | 超级碰碰免费视频 | 青青草视频精品 | wwxxx日本| 国产精品 国产精品 | 贫乳av女优大全 | 久久久精品国产一区二区三区 | 在线播放av网址 | 人人天天夜夜 | 美女视频久久久 | 国产免费中文字幕 | 久久成人毛片 | 五月婷婷亚洲 | 区一区二区三区中文字幕 | 成人一级电影在线观看 | 九九免费在线观看视频 | 精品久久久久久久久亚洲 | 亚洲人成免费网站 | 久久久免费观看视频 | 久久精品牌麻豆国产大山 | 黄色一级大片在线免费看国产一 | 亚洲精选国产 | 一区二区三区日韩在线 | 免费色视频网址 | 久久99网站 | 久久久久久高潮国产精品视 | 日韩资源在线播放 | 国产99久久99热这里精品5 | 国产成人av电影在线 | 超碰97中文| 日韩在线观看中文 | 日日夜夜综合网 | 激情网站 | 8x成人免费视频 | 欧美伦理电影一区二区 | 中文字幕在线专区 | 天天综合久久综合 | 精品视频免费观看 | 97视频入口免费观看 | 香蕉成人在线视频 | 国产中文字幕在线视频 | 91视视频在线直接观看在线看网页在线看 | 五月天色站 | 日韩试看 | 国产91在线播放 | 亚洲国产成人精品电影在线观看 | 麻豆果冻剧传媒在线播放 | 国产精品一区二区麻豆 | 视频一区在线播放 | 久草视频在线新免费 | 毛片网站在线观看 | 午夜精品福利一区二区 | 亚洲久草网 | 国产视频在线免费观看 | 人人看人人 | 国产成人精品综合 | 国产精品久久久久久久久大全 | 欧美综合在线视频 | 精品国产视频在线观看 | 久热av在线 | 操老逼免费视频 | 国内久久 | 免费不卡中文字幕视频 | 亚洲91精品在线观看 | 成人动漫一区二区三区 | 香蕉视频久久久 | 久久综合精品一区 | 欧美黄网站 | 国产精彩视频 | 国产拍在线 | 亚洲精品视频网 | www.69xx | 在线国产黄色 | 欧美一区二区三区四区夜夜大片 | 久久久久久久精 | 在线岛国av | av亚洲产国偷v产偷v自拍小说 | 伊人久久婷婷 | 日韩免费av在线 | 天天插天天 | 国产精品二区在线 | 国产成人精品久久久久蜜臀 | 99精品美女 | 午夜av剧场 | 91丨九色丨高潮丰满 | 9999在线 | 韩国视频一区二区三区 | 成人黄色大片 | 亚洲成人精品国产 | 婷婷色网址 | 91av中文 | 免费看一级黄色 | 探花视频在线版播放免费观看 | www.在线观看av | 亚洲精品永久免费视频 | 成人免费xxxxxx视频 | 久久国产精品99久久久久久进口 | 亚洲国产中文字幕在线观看 | 香蕉视频91 | 久一在线| 五月激情综合婷婷 | 人人干人人做 | 日韩欧美精品在线观看 | 色天天综合网 | 久久99中文字幕 | 亚洲好视频| 一区二区中文字幕在线 | 91精品啪在线观看国产 | 五月婷婷色 | 24小时日本在线www免费的 | 久久黄色精品视频 | 欧美国产不卡 | 在线成人欧美 | 久久国产手机看片 | 久久情侣偷拍 | 五月婷婷丁香网 | 久久精品4| 欧美色操 | 正在播放一区二区 | 永久黄网站色视频免费观看w | av国产在线观看 | 色婷婷在线视频 | 国产高清成人在线 | 99热.com | 免费成人在线视频网站 | 国产精品福利在线 | 日韩免费观看视频 | 精品亚洲国产视频 | 播五月综合 | 欧美日韩免费观看一区=区三区 | 手机成人免费视频 | 日韩在线视频观看 | 国内精品久久久久久久久久久 | 天天草网站| 国产一线二线三线在线观看 | 国产不卡片 | 国产精品久久99综合免费观看尤物 | 久草在线视频网站 | 免费精品在线视频 | 成人av片免费观看app下载 | 中文字幕超清在线免费 | 中文字幕在线免费 | 久久久久综合精品福利啪啪 | 日韩在线视频网 | 99中文字幕视频 | 久久成人国产精品 | 亚洲精品国偷拍自产在线观看蜜桃 | 久久久久久久久久久福利 | 亚洲影院一区 | 黄色一级大片免费看 | 久久久久国产视频 | 亚洲一区视频在线播放 | 在线观看av小说 | 婷婷六月网| 国产在线精品国自产拍影院 | 在线观看韩日电影免费 | 91精品免费| 天堂av在线7 | 国产精品久久久久久久久久白浆 | 麻豆视传媒官网免费观看 | 国产视频中文字幕 | 日韩欧美在线不卡 | 五月天综合网站 | 九九久久免费视频 | 久久精品中文字幕少妇 | 日韩精品视频免费专区在线播放 | 亚洲一一在线 | 国产视频网站在线观看 | 午夜精品视频一区 | 国产免费视频一区二区裸体 | 18岁免费看片 | 国产韩国日本高清视频 | 99久久夜色精品国产亚洲96 | 香蕉91视频 | 九九热中文字幕 | 午夜av色 | 国产午夜精品免费一区二区三区视频 | 欧美91精品久久久久国产性生爱 | 成人久久精品 | 日韩中午字幕 | 国产精品v欧美精品v日韩 | 精品在线一区二区 | 国产日韩视频在线观看 | 国产精品久久视频 | av大全在线 | 欧美激情精品久久久久久变态 | 精品久久久精品 | 一区二区三区日韩视频在线观看 | 在线 欧美 日韩 | 国产欧美精品一区二区三区 | 国产精品剧情在线亚洲 | 狠狠操操操 | 日韩中字在线 | 91麻豆精品国产91久久久久 | 超碰在线网 | 成人免费在线视频 | 亚洲视屏在线播放 | 亚洲精品视频在线播放 | 成人香蕉视频 | a色视频| 久久婷婷国产色一区二区三区 | 日韩av在线资源 | av女优中文字幕在线观看 | 中文字幕人成不卡一区 | 91chinesexxx | 黄色毛片在线观看 | www.大网伊人 | 人人爽人人av | 久久久久久久久久久久亚洲 | av资源中文字幕 | 91视频电影 | 国产97在线看 | 国产午夜一区 | 美女免费视频网站 | 久久天天躁狠狠躁夜夜不卡公司 | 日韩成人中文字幕 | 中文字幕在线字幕中文 | 国产精品美女久久久久久2018 | 视频一区二区免费 | 中文字幕观看在线 | 国产成a人亚洲精v品在线观看 | 91在线麻豆 | 成人欧美一区二区三区在线观看 | aa一级片 | 在线观看一区 | 国产色视频网站2 | 国产xxxx做受性欧美88 | 精品久久久久久久久久久久久久久久 | 99电影456麻豆 | av黄色在线播放 | 91在线免费播放视频 | 久久久18| 婷婷国产视频 | 亚洲视频久久 | 色天堂在线视频 | 高清av在线免费观看 | 日韩在线播放欧美字幕 | 狠狠色丁香久久婷婷综合五月 | 国产1区2区 | 婷婷开心久久网 | 精品xxx| 午夜精品久久久久久久99无限制 | www.xxxx欧美 | 色资源网免费观看视频 | 色网免费观看 | 国产精品日韩在线 | 精品国产免费人成在线观看 | 免费看一级黄色大全 | 日韩视频一区二区三区 | 欧美aa一级 | 日本资源中文字幕在线 | 美国三级黄色大片 | 91视频免费观看 | 日韩中文字幕免费在线播放 | 特级毛片爽www免费版 | 国产手机av在线 | 亚洲三级在线播放 | 中文字幕电影在线 | 日韩婷婷 | 日本成人a | 日韩免费观看高清 | av先锋中文字幕 | 久久蜜臀一区二区三区av | 欧美高清视频不卡网 | 欧美美女视频在线观看 | 久久久久久免费毛片精品 | 97视频在线| 久久精品三级 | 欧美精品久久久久久久久免 | 久久久久久久久久久久久久av | 免费在线观看视频一区 | 黄网站免费大全入口 | 日韩一级精品 | 国产一区二区三区高清播放 | 日本中文在线观看 | 91专区在线观看 | 午夜精品中文字幕 | 成人香蕉视频 | 五月开心六月婷婷 | 免费av试看 | 美女福利视频一区二区 | 亚洲国产精品电影 | 97超碰免费在线 | 天天综合精品 | 97精品国自产拍在线观看 | 亚洲电影院| 久久精品国产免费 | 久久国产高清 | 伊人久久国产精品 | 久久久婷| 欧洲av不卡 | av在线免费在线 | 欧美在线观看视频 | 日韩精品在线免费播放 | 日韩一区视频在线 | 看av免费 | 天天天操天天天干 | 最近日本mv字幕免费观看 | av在线免费观看网站 | 蜜臀久久99精品久久久酒店新书 | 国产美女视频免费 | 中文字幕乱码一区二区 | 亚洲天堂网在线视频 | 国产亚洲欧美在线视频 | 欧美日一级片 | 99tvdz@gmail.com| 91影视成人| 在线欧美日韩 | 日本在线中文在线 | 亚洲免费观看在线视频 | 久久成人综合 | www五月天com| 国产不卡高清 | 免费看av在线 | 天天操天天怕 | 天天爱天天操 | 国产精品igao视频网入口 | 日韩在线免费播放 | 日日婷婷夜日日天干 | 国产伦理久久精品久久久久_ | 色88久久| 激情婷婷av | 黄视频色网站 | av一级久久 | 国产一区二区久久久久 | 在线性视频日韩欧美 | 在线观看视频精品 | 国产欧美日韩视频 | 亚洲黄色在线免费观看 | 天天操天天射天天插 | 欧美精品亚洲精品日韩精品 | 国产高清99 | 国产亚洲精品久久久久久网站 | 欧美成人精品在线 | 高清免费在线视频 | 深爱激情五月婷婷 | 九9热这里真品2 | 激情开心网站 | 黄色大片中国 | 欧美色图东方 | 国产视频2 | av福利免费 | 最新国产一区二区三区 | 蜜臀av性久久久久蜜臀aⅴ涩爱 | 久久视频在线视频 | 天天色欧美 | 91手机视频在线 | 91麻豆精品国产91久久久久久久久 | 久青草视频在线观看 | 婷婷色站 | 青青久视频 | 免费国产在线精品 | 日本成人免费在线观看 | 国产一区在线精品 | 色停停五月天 | 麻豆va一区二区三区久久浪 | 日韩免费中文 | 亚洲精品免费在线观看视频 | 色婷婷狠狠 | 成片免费观看视频大全 | 在线亚洲成人 | 欧美最新大片在线看 | 国产精品原创在线 | 日韩在线不卡av | 国产成人一区二区三区 | 亚洲天堂网在线视频 | 蜜桃视频日本 | 91精彩视频| 99一区二区三区 | 国产又粗又猛又爽 | 久久久久国产精品免费网站 | 日本激情动作片免费看 | 美女国产| 啪啪免费视频网站 | 91成人免费看| 免费看黄色小说的网站 | 国产精品igao视频网网址 | 丁香伊人网| 日韩一级理论片 | 免费黄色网址网站 | 国产第一二区 | www天天干com | 国产日韩高清在线 | av免费网站在线观看 | 天天婷婷 | 欧美一级裸体视频 | 久久综合一本 | 国产一级大片在线观看 | www色,com| 欧美午夜精品久久久久 | 999视频网站| 亚洲国产精品成人女人久久 | 女人18片毛片90分钟 | 久久久久久久久久网站 | 久久久免费av| 亚洲午夜精品一区 | 缴情综合网五月天 | 成人中文字幕av | 日韩在线网址 | 人人干97 | 四季av综合网站 | 97理论电影 | 在线观看中文字幕第一页 | 色婷婷婷| 色国产在线| 久久视频免费在线观看 | 天天爱综合| 91精品国产高清 | 日日天天干 | 在线观看一区视频 | 久草热久草视频 | 在线综合 亚洲 欧美在线视频 | 91视频在线免费观看 | 久久精品4| 婷婷综合影院 | 日韩午夜视频在线观看 | 国产亚洲免费的视频看 | 激情动态 | 欧美日本啪啪无遮挡网站 | 色婷婷综合激情 | 亚洲国产精品成人va在线观看 | 99久久久久久久 | 人成在线免费视频 | a资源在线 | 深夜男人影院 | 一区二区三区在线观看中文字幕 | 中文字幕一区二 | 在线天堂亚洲 | 91大神在线看 | 韩国av一区二区三区 | 久久精品视频2 | 国产小视频免费观看 | 国产一区在线看 | 欧美a√在线 | 亚洲四虎在线 | 在线你懂的视频 | 国产国产人免费人成免费视频 | 亚洲视频电影在线 | 福利网址在线观看 | 久久久免费精品国产一区二区 | 人人澡人 | 这里有精品在线视频 | 久久av免费| 精品电影一区二区 | 96亚洲精品久久久蜜桃 | 天堂中文在线视频 | 日韩高清在线一区 | 免费在线观看一区二区三区 | 亚洲国产人午在线一二区 | 婷婷在线视频 | 五月婷婷狠狠 | 国内视频一区二区 | 成人性生交大片免费观看网站 | 免费99精品国产自在在线 | 色婷婷六月天 | 日女人免费视频 | 丁香婷婷久久久综合精品国产 | 日日夜夜狠狠干 | 久产久精国产品 | 91九色蝌蚪国产 | 天天操操操操操操 | 欧美日本国产在线观看 | 国产精品99久久免费观看 | 亚洲国产精品久久 | 亚洲精品自拍视频在线观看 | 久久亚洲精品电影 | 国产在线国偷精品产拍免费yy | 中文字幕一区2区3区 | 国产亚洲人成网站在线观看 | 国内精品美女在线观看 | 国产九色视频在线观看 | 丁香六月色 | 91精品国产综合久久福利不卡 | 亚洲黄色片一级 | 免费看日韩片 | 午夜久久福利视频 | 久久99久久99精品中文字幕 |