日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

朴素贝叶斯--实战分析

發布時間:2024/9/20 编程问答 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 朴素贝叶斯--实战分析 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

概率論及貝葉斯決策理論的一些知識請參閱相關書籍和博客
https://blog.csdn.net/amds123/article/details/70173402

這里給出源碼及解析。

1. 使用python進行文本分類

# -*- coding: utf-8 -*- """ Created on Mon Aug 14 21:40:38 2017@author: LiLong """ from numpy import *# 創建實驗樣本 def loadDataSet():# 詞條集合postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],['stop', 'posting', 'stupid', 'worthless', 'garbage'],['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]# 類別標簽集合,這里是人工標注的classVec = [0,1,0,1,0,1] return postingList,classVecdef createVocabList(dataSet): #vocabSet = set([]) # 創建一個空集,set()確保元素的唯一性for document in dataSet:vocabSet = vocabSet | set(document) # 兩個集合的并集,既是添加新詞集合print 'vocabSet',vocabSet #得到的是一個集合return list(vocabSet) # 得到的是一個列表,在此需要轉換為列表def setOfWords2Vec(vocabList, inputSet): # 輸入的詞組轉換為向量returnVec = [0]*len(vocabList) # 創建一個列表向量,并且和詞匯表等長for word in inputSet:if word in vocabList: # 判斷單詞是否在詞匯表中if...in....returnVec[vocabList.index(word)] = 1 # 出現設置為1,為詞集模型else: print "the word: %s is not in my Vocabulary!" % wordreturn returnVec # 返回輸入文本的詞向量,每個都是等長的# 樸素貝葉斯訓練函數 def trainNB0(trainMatrix,trainCategory): #trainCategory每篇文檔類別標簽所構成的向量numTrainDocs = len(trainMatrix) #訓練文檔的數目numWords = len(trainMatrix[0]) # 每篇文檔的詞向量pAbusive = sum(trainCategory)/float(numTrainDocs) # 侮辱性文檔的頻率p0Num = ones(numWords); p1Num = ones(numWords) # 初始化:設為1和2為了消除概率為0的影響p0Denom = 2.0; p1Denom = 2.0 for i in range(numTrainDocs):if trainCategory[i] == 1: # 如果該文檔相應的標簽是1p1Num += trainMatrix[i] #兩向量相加,侮辱性的詞語個數累加p1Denom += sum(trainMatrix[i]) #同一個向量的元素相加,得到標簽1的侮辱詞總個數else:p0Num += trainMatrix[i]p0Denom += sum(trainMatrix[i])p1Vect = log(p1Num/p1Denom) # 為了避免下溢,同時也是為分類時的運算做準備p0Vect = log(p0Num/p0Denom) return p0Vect,p1Vect,pAbusive# 樸素貝葉斯分類函數 # vec2Classify是要分類的向量 def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):# p(Ci|W)<=>p(W|Ci)p(Ci)--->log(p(Ci|W))<=>log(p(W|Ci))+log(p(Ci))#sum()列表對應元素相乘,再相加(有點類似求期望)p1 = sum(vec2Classify * p1Vec) + log(pClass1) p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)if p1 > p0:return 1else: return 0def testingNB():listOPosts,listClasses = loadDataSet() # 載入文檔和標簽myVocabList = createVocabList(listOPosts) # 得到詞匯表,即文檔中不重復的詞列表trainMat=[]for postinDoc in listOPosts: # 得到所有詞條的詞向量trainMat.append(setOfWords2Vec(myVocabList, postinDoc))# 得到整篇文檔的侮辱性詞條向量的概率以及兩個類別的概率p0V,p1V,pAb = trainNB0(array(trainMat),array(listClasses))testEntry = ['love', 'my', 'dalmation']thisDoc = array(setOfWords2Vec(myVocabList, testEntry))print testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb)testEntry = ['stupid', 'garbage']thisDoc = array(setOfWords2Vec(myVocabList, testEntry))print testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb)# 函數入口 testingNB()

運行結果:

runfile('C:/Users/LiLong/Desktop/Bayesian/bayesian.py', wdir='C:/Users/LiLong/Desktop/Bayesian') vocabSet set(['cute', 'love', 'help', 'garbage', 'quit', 'I', 'problems', 'is', 'park', 'stop', 'flea', 'dalmation', 'licks', 'food', 'not', 'him', 'buying', 'posting', 'has', 'worthless', 'ate', 'to', 'maybe', 'please', 'dog', 'how', 'stupid', 'so', 'take', 'mr', 'steak', 'my']) ['love', 'my', 'dalmation'] classified as: 0 ['stupid', 'garbage'] classified as: 1

這里需要注意幾點:

  • 假設所有的詞都相互獨立,使用了條件獨立性假設
  • 將每個詞出現與否作為一個特征,即詞集模型
  • p1 = sum(vec2Classify * p1Vec) + log(pClass1)這句有點類似求期望

2. 使用樸素貝葉斯過濾垃圾郵件

# -*- coding: utf-8 -*- """ Created on Mon Aug 14 21:40:38 2017@author: LiLong """ from numpy import * #import feedparserdef createVocabList(dataSet): vocabSet = set([]) # 創建一個空集,set()確保元素的唯一性for document in dataSet: # dataset形如[[],[],[],.....]vocabSet = vocabSet | set(document) # 兩個集合的并集,既是添加新詞集合#print 'vocabSet',vocabSet # 得到的是一個集合return list(vocabSet) # 得到的是一個列表,在此需要轉換為列表# 詞集模型 def setOfWords2Vec(vocabList, inputSet): # 輸入的詞組轉換為向量returnVec = [0]*len(vocabList) # 創建一個列表向量,并且和詞匯表等長for word in inputSet:if word in vocabList: # 判斷單詞是否在詞匯表中if...in....returnVec[vocabList.index(word)] = 1 # 出現設置為1,為詞集模型else: print "the word: %s is not in my Vocabulary!" % wordreturn returnVec # 返回輸入文本的詞向量,每個都是等長的# 詞袋模型 def bagOfWords2VecMN(vocabList, inputSet): # 輸入的詞組轉換為向量returnVec = [0]*len(vocabList) # 創建一個列表向量,并且和詞匯表等長for word in inputSet:if word in vocabList: # 判斷單詞是否在詞匯表中if...in....returnVec[vocabList.index(word)] = +1 # 出現就加一else: print "the word: %s is not in my Vocabulary!" % wordreturn returnVec # 返回輸入文本的詞向量,每個都是等長的# 樸素貝葉斯訓練函數 def trainNB0(trainMatrix,trainCategory): #trainCategory每篇文檔類別標簽所構成的向量numTrainDocs = len(trainMatrix) #訓練文檔的數目numWords = len(trainMatrix[0]) # 每篇文檔的詞向量pAbusive = sum(trainCategory)/float(numTrainDocs) # 侮辱性文檔的頻率p0Num = ones(numWords); p1Num = ones(numWords) # 初始化:設為1和2為了消除概率為0的影響p0Denom = 2.0; p1Denom = 2.0 for i in range(numTrainDocs): if trainCategory[i] == 1: # 如果該文檔相應的標簽是1,計算p(w|1)p1Num += trainMatrix[i] #兩向量相加,侮辱性的詞語個數累加p1Denom += sum(trainMatrix[i]) #同一個向量的元素相加,得到標簽1的侮辱詞總個數else: # 計算p(w|0)p0Num += trainMatrix[i]p0Denom += sum(trainMatrix[i])p1Vect = log(p1Num/p1Denom) # 為了避免下溢,同時也是為分類時的運算做準備p0Vect = log(p0Num/p0Denom) return p0Vect,p1Vect,pAbusive# 樸素貝葉斯分類函數 # vec2Classify是要分類的向量 def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):# p(Ci|W)<=>p(W|Ci)p(Ci)--->log(p(Ci|W))<=>log(p(W|Ci))+log(p(Ci))#sum()列表對應元素相乘,再相加(有點類似求期望)p1 = sum(vec2Classify * p1Vec) + log(pClass1) p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)if p1 > p0:return 1else: return 0# 測試函數,封裝了所有操作 def testingNB():listOPosts,listClasses = loadDataSet() # 載入文檔和標簽myVocabList = createVocabList(listOPosts) # 得到詞匯表,即文檔中不重復的詞列表trainMat=[]for postinDoc in listOPosts: # 得到所有詞條的詞向量trainMat.append(setOfWords2Vec(myVocabList, postinDoc))# 得到整篇文檔的侮辱性詞條向量的概率以及兩個類別的概率p0V,p1V,pAb = trainNB0(array(trainMat),array(listClasses)) #在此必須轉換為numpy的array()testEntry = ['love', 'my', 'dalmation']thisDoc = array(setOfWords2Vec(myVocabList, testEntry)) # 只要是數組,就必須array()print testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb)testEntry = ['stupid', 'garbage']thisDoc = array(setOfWords2Vec(myVocabList, testEntry))print testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb)# 文件解析 def textParse(bigString): import relistOfTokens = re.split(r'\W*', bigString) # 切分文本# 去掉少于兩個字符的字符串return [tok.lower() for tok in listOfTokens if len(tok) > 2]# 垃圾郵件測試函數 def spamTest():docList=[]; classList = []; fullText =[]for i in range(1,26):# 一種重要的讀取路徑下的文件的有效方法,打開文件并讀取文件內容wordList = textParse(open('spam/%d.txt' % i).read()) docList.append(wordList) # 添加形成[[],[]...]fullText.extend(wordList) # 添加形成[.....]classList.append(1) # 類別1# 讀取另一個文件wordList = textParse(open('ham/%d.txt' % i).read())docList.append(wordList)fullText.extend(wordList)classList.append(0) #類別0#print 'classList:',classList# 創建詞匯表(doclist存儲所有的類別,50個),得到不重復的所有字符串的列表vocabList = createVocabList(docList) #print 'vocabList:',vocabListtrainingSet = range(50); testSet=[] for i in range(10): # 隨機構建訓練集randIndex = int(random.uniform(0,len(trainingSet))) # 0到50的一個隨機整數testSet.append(trainingSet[randIndex])del(trainingSet[randIndex]) print 'testSet:',testSet # 其中10個被選為測試集print 'trainingSet:',trainingSet # 剩下的40個為訓練集# 構建訓練集詞條向量 trainMat=[]; trainClasses = []for docIndex in trainingSet:trainMat.append(bagOfWords2VecMN(vocabList, docList[docIndex])) #trainMat是數組trainClasses.append(classList[docIndex]) # 相應的類別# 樸素貝葉斯訓練函數p0V,p1V,pSpam = trainNB0(array(trainMat),array(trainClasses))errorCount = 0# 測試for docIndex in testSet: wordVector = bagOfWords2VecMN(vocabList, docList[docIndex])if classifyNB(array(wordVector),p0V,p1V,pSpam) != classList[docIndex]:errorCount += 1print "classification error",docList[docIndex] # 輸出相應的判斷錯誤的詞表print 'the error rate is:',float(errorCount)/len(testSet)#return vocabList,fullText# 函數入口 #testingNB() spamTest()

結果:

runfile('C:/Users/LiLong/Desktop/Bayesian/debug.py', wdir='C:/Users/LiLong/Desktop/Bayesian') testSet: [34, 23, 8, 10, 40, 13, 21, 14, 2, 20] trainingSet: [0, 1, 3, 4, 5, 6, 7, 9, 11, 12, 15, 16, 17, 18, 19, 22, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 35, 36, 37, 38, 39, 41, 42, 43, 44, 45, 46, 47, 48, 49] the error rate is: 0.0runfile('C:/Users/LiLong/Desktop/Bayesian/debug.py', wdir='C:/Users/LiLong/Desktop/Bayesian') testSet: [31, 15, 23, 8, 12, 27, 10, 3, 13, 1] trainingSet: [0, 2, 4, 5, 6, 7, 9, 11, 14, 16, 17, 18, 19, 20, 21, 22, 24, 25, 26, 28, 29, 30, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49] classification error ['oem', 'adobe', 'microsoft', 'softwares', 'fast', 'order', 'and', 'download', 'microsoft', 'office', 'professional', 'plus', '2007', '2010', '129', 'microsoft', 'windows', 'ultimate', '119', 'adobe', 'photoshop', 'cs5', 'extended', 'adobe', 'acrobat', 'pro', 'extended', 'windows', 'professional', 'thousand', 'more', 'titles'] the error rate is: 0.1

結果是兩次的運行效果,因為電子有郵件是隨機選擇的,所以每次的輸出結果可能有些差別,也可以重復多次,然后求平均值,降低錯誤率。

注意:

  • 這里用到的是詞袋模型
  • 數據選擇用的是留存交叉驗證

    其他:

>>> [1,0,1]+[0,0,0] [1, 0, 1, 0, 0, 0] >>> t= array([1,0,1]) >>> m=array([0,0,1]) >>> t+m array([1, 0, 2]) >>> t= array([1,0,2]) >>> t*t array([1, 0, 4]) >>> t= array([[1,0,2],[1,0,2]]) >>> m=array([2,0,2]) >>> t*m array([[2, 0, 4],[2, 0, 4]])

3. 使用樸素貝葉斯從個人廣告中獲取區域傾向

我用的是spyder,自身沒有帶feedparser,所以首先安裝feedparser:

  • 下載安裝包 :feedparser-5.2.1

  • 基于spyder平臺安裝:打開spyder后,tools–>open command prompt,打開控制臺后,cd進入下載包的位置,運行python setup.py install。然后在cmd下 輸入pip list 查看已安裝的包,如果是比較老的版本用pipi freeze。

# -*- coding: utf-8 -*- """ Created on Mon Aug 14 21:40:38 2017@author: LiLong """ from numpy import * #import feedparser# 創建實驗樣本 def loadDataSet():# 詞條集合postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],['stop', 'posting', 'stupid', 'worthless', 'garbage'],['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]# 類別標簽集合,這里是人工標注的classVec = [0,1,0,1,0,1] return postingList,classVecdef createVocabList(dataSet): #vocabSet = set([]) # 創建一個空集,set()確保元素的唯一性for document in dataSet: # dataset形如[[],[],[],.....]vocabSet = vocabSet | set(document) # 兩個集合的并集,既是添加新詞集合#print 'vocabSet',vocabSet # 得到的是一個集合return list(vocabSet) # 得到的是一個列表,在此需要轉換為列表# 詞集模型 def setOfWords2Vec(vocabList, inputSet): # 輸入的詞組轉換為向量returnVec = [0]*len(vocabList) # 創建一個列表向量,并且和詞匯表等長for word in inputSet:if word in vocabList: # 判斷單詞是否在詞匯表中if...in....returnVec[vocabList.index(word)] = 1 # 出現設置為1,為詞集模型else: print "the word: %s is not in my Vocabulary!" % wordreturn returnVec # 返回輸入文本的詞向量,每個都是等長的# 詞袋模型 def bagOfWords2VecMN(vocabList, inputSet): # 輸入的詞組轉換為向量returnVec = [0]*len(vocabList) # 創建一個列表向量,并且和詞匯表等長for word in inputSet:if word in vocabList: # 判斷單詞是否在詞匯表中if...in....returnVec[vocabList.index(word)] = +1 # 出現就加一else: pass#print "the word: %s is not in my Vocabulary!" % wordreturn returnVec # 返回輸入文本的詞向量,每個都是等長的# 樸素貝葉斯訓練函數 def trainNB0(trainMatrix,trainCategory): #trainCategory每篇文檔類別標簽所構成的向量numTrainDocs = len(trainMatrix) #訓練文檔的數目numWords = len(trainMatrix[0]) # 每篇文檔的詞向量pAbusive = sum(trainCategory)/float(numTrainDocs) # 侮辱性文檔的頻率p0Num = ones(numWords); p1Num = ones(numWords) # 初始化:設為1和2為了消除概率為0的影響p0Denom = 2.0; p1Denom = 2.0 for i in range(numTrainDocs): if trainCategory[i] == 1: # 如果該文檔相應的標簽是1,計算p(w|1)p1Num += trainMatrix[i] #兩向量相加,侮辱性的詞語個數累加p1Denom += sum(trainMatrix[i]) #同一個向量的元素相加,得到標簽1的侮辱詞總個數else: # 計算p(w|0)p0Num += trainMatrix[i]p0Denom += sum(trainMatrix[i])p1Vect = log(p1Num/p1Denom) # 為了避免下溢,同時也是為分類時的運算做準備p0Vect = log(p0Num/p0Denom) return p0Vect,p1Vect,pAbusive# 樸素貝葉斯分類函數 # vec2Classify是要分類的向量 def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):# p(Ci|W)<=>p(W|Ci)p(Ci)--->log(p(Ci|W))<=>log(p(W|Ci))+log(p(Ci))#sum()列表對應元素相乘,再相加(有點類似求期望)p1 = sum(vec2Classify * p1Vec) + log(pClass1) p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)if p1 > p0:return 1else: return 0# 測試函數,封裝了所有操作 def testingNB():listOPosts,listClasses = loadDataSet() # 載入文檔和標簽myVocabList = createVocabList(listOPosts) # 得到詞匯表,即文檔中不重復的詞列表trainMat=[]for postinDoc in listOPosts: # 得到所有詞條的詞向量trainMat.append(setOfWords2Vec(myVocabList, postinDoc))# 得到整篇文檔的侮辱性詞條向量的概率以及兩個類別的概率p0V,p1V,pAb = trainNB0(array(trainMat),array(listClasses)) #在此必須轉換為numpy的array()testEntry = ['love', 'my', 'dalmation']thisDoc = array(setOfWords2Vec(myVocabList, testEntry)) # 只要是數組,就必須array()print testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb)testEntry = ['stupid', 'garbage']thisDoc = array(setOfWords2Vec(myVocabList, testEntry))print testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb)# 文件解析 def textParse(bigString): import relistOfTokens = re.split(r'\W*', bigString) # 切分文本# 去掉少于兩個字符的字符串return [tok.lower() for tok in listOfTokens if len(tok) > 2]# 垃圾郵件測試函數 def spamTest():docList=[]; classList = []; fullText =[]for i in range(1,26):# 一種重要的讀取路徑下的文件的有效方法,打開文件并讀取文件內容wordList = textParse(open('spam/%d.txt' % i).read()) docList.append(wordList) # 添加形成[[],[]...]fullText.extend(wordList) # 添加形成[.....]classList.append(1) # 類別1# 讀取另一個文件wordList = textParse(open('ham/%d.txt' % i).read())docList.append(wordList)fullText.extend(wordList)classList.append(0) #類別0#print 'classList:',classList# 創建詞匯表(doclist存儲所有的類別,50個),得到不重復的所有字符串的列表vocabList = createVocabList(docList) #print 'vocabList:',vocabListtrainingSet = range(50); testSet=[] for i in range(10): # 隨機構建訓練集randIndex = int(random.uniform(0,len(trainingSet))) # 0到50的一個隨機整數testSet.append(trainingSet[randIndex])del(trainingSet[randIndex]) print 'testSet:',testSet # 其中10個被選為測試集print 'trainingSet:',trainingSet # 剩下的40個為訓練集# 構建訓練集詞條向量 trainMat=[]; trainClasses = []for docIndex in trainingSet:trainMat.append(bagOfWords2VecMN(vocabList, docList[docIndex])) #trainMat是數組trainClasses.append(classList[docIndex]) # 相應的類別# 樸素貝葉斯訓練函數p0V,p1V,pSpam = trainNB0(array(trainMat),array(trainClasses))errorCount = 0# 測試for docIndex in testSet: wordVector = bagOfWords2VecMN(vocabList, docList[docIndex])if classifyNB(array(wordVector),p0V,p1V,pSpam) != classList[docIndex]:errorCount += 1print "classification error",docList[docIndex] # 輸出相應的判斷錯誤的詞表print 'the error rate is:',float(errorCount)/len(testSet)#return vocabList,fullText# 計算出現頻率 def calcMostFreq(vocabList,fullText):import operatorfreqDict = {}for token in vocabList:freqDict[token]=fullText.count(token) # token在列表fullText中的數量sortedFreq = sorted(freqDict.iteritems(), key=operator.itemgetter(1), reverse=True) return sortedFreq[:30] # 類似spamTest()的功能 def localWords(feed1,feed0):import feedparserdocList=[]; classList = []; fullText =[]minLen = min(len(feed1['entries']),len(feed0['entries'])) # entris是一個listprint 'minLen:',minLenfor i in range(minLen):wordList = textParse(feed1['entries'][i]['summary'])docList.append(wordList)fullText.extend(wordList)classList.append(1) #NY is class 1wordList = textParse(feed0['entries'][i]['summary'])docList.append(wordList)fullText.extend(wordList)classList.append(0)vocabList = createVocabList(docList) #create vocabulary# top30Words是[(u'and', 91),.....]的形式top30Words = calcMostFreq(vocabList,fullText) print 'top30Words:',top30Wordsfor pairW in top30Words:if pairW[0] in vocabList: vocabList.remove(pairW[0]) # 移除排序最高的30個單詞trainingSet = range(2*minLen); testSet=[] # 建立測試集for i in range(20):randIndex = int(random.uniform(0,len(trainingSet)))testSet.append(trainingSet[randIndex])del(trainingSet[randIndex]) trainMat=[]; trainClasses = []for docIndex in trainingSet:trainMat.append(bagOfWords2VecMN(vocabList, docList[docIndex]))trainClasses.append(classList[docIndex])p0V,p1V,pSpam = trainNB0(array(trainMat),array(trainClasses))errorCount = 0for docIndex in testSet: wordVector = bagOfWords2VecMN(vocabList, docList[docIndex])if classifyNB(array(wordVector),p0V,p1V,pSpam) != classList[docIndex]:errorCount += 1print 'the error rate is: ',float(errorCount)/len(testSet)return vocabList,p0V,p1V# 函數入口 #testingNB() #spamTest() ny=feedparser.parse('http://newyork.craigslist.org/stp/index.rss') # 必須函數外導入 sf=feedparser.parse('http://sfbay.craigslist.org/stp/index.rss') vocabList,psF,pNY=localWords(ny,sf)

結果:

runfile('C:/Users/LiLong/Desktop/Bayesian/bayesian.py', wdir='C:/Users/LiLong/Desktop/Bayesian') minLen: 25 top30Words: [(u'and', 90), (u'you', 54), (u'for', 51), (u'indian', 35), (u'looking', 32), (u'who', 32), (u'the', 29), (u'with', 28), (u'have', 25), (u'can', 21), (u'male', 19), (u'female', 17), (u'your', 17), (u'that', 14), (u'not', 13), (u'just', 13), (u'like', 13), (u'here', 11), (u'out', 11), (u'are', 11), (u'good', 10), (u'married', 10), (u'but', 10), (u'single', 10), (u'area', 10), (u'woman', 9), (u'want', 9), (u'friend', 9), (u'bay', 9), (u'about', 9)] the error rate is: 0.45runfile('C:/Users/LiLong/Desktop/Bayesian/bayesian.py', wdir='C:/Users/LiLong/Desktop/Bayesian') minLen: 25 top30Words: [(u'and', 90), (u'you', 54), (u'for', 51), (u'indian', 35), (u'looking', 32), (u'who', 32), (u'the', 29), (u'with', 28), (u'have', 25), (u'can', 21), (u'male', 19), (u'female', 17), (u'your', 17), (u'that', 14), (u'not', 13), (u'just', 13), (u'like', 13), (u'here', 11), (u'out', 11), (u'are', 11), (u'good', 10), (u'married', 10), (u'but', 10), (u'single', 10), (u'area', 10), (u'woman', 9), (u'want', 9), (u'friend', 9), (u'bay', 9), (u'about', 9)] the error rate is: 0.35runfile('C:/Users/LiLong/Desktop/Bayesian/bayesian.py', wdir='C:/Users/LiLong/Desktop/Bayesian') minLen: 25 top30Words: [(u'and', 90), (u'you', 54), (u'for', 51), (u'indian', 35), (u'looking', 32), (u'who', 32), (u'the', 29), (u'with', 28), (u'have', 25), (u'can', 21), (u'male', 19), (u'female', 17), (u'your', 17), (u'that', 14), (u'not', 13), (u'just', 13), (u'like', 13), (u'here', 11), (u'out', 11), (u'are', 11), (u'good', 10), (u'married', 10), (u'but', 10), (u'single', 10), (u'area', 10), (u'woman', 9), (u'want', 9), (u'friend', 9), (u'bay', 9), (u'about', 9)] the error rate is: 0.15runfile('C:/Users/LiLong/Desktop/Bayesian/bayesian.py', wdir='C:/Users/LiLong/Desktop/Bayesian') minLen: 25 top30Words: [(u'and', 90), (u'you', 54), (u'for', 51), (u'indian', 35), (u'looking', 32), (u'who', 32), (u'the', 29), (u'with', 28), (u'have', 25), (u'can', 21), (u'male', 19), (u'female', 17), (u'your', 17), (u'that', 14), (u'not', 13), (u'just', 13), (u'like', 13), (u'here', 11), (u'out', 11), (u'are', 11), (u'good', 10), (u'married', 10), (u'but', 10), (u'single', 10), (u'area', 10), (u'woman', 9), (u'want', 9), (u'friend', 9), (u'bay', 9), (u'about', 9)] the error rate is: 0.15

如果注釋掉用于移除高頻詞的那幾行代碼,會發現錯誤率有所改變,由此可以看出最具表征性的詞在詞匯表中的重要性,也即是特征的重要性。。

runfile('C:/Users/LiLong/Desktop/Bayesian/bayesian.py', wdir='C:/Users/LiLong/Desktop/Bayesian') minLen: 25 the error rate is: 0.3runfile('C:/Users/LiLong/Desktop/Bayesian/bayesian.py', wdir='C:/Users/LiLong/Desktop/Bayesian') minLen: 25 660 the error rate is: 0.35runfile('C:/Users/LiLong/Desktop/Bayesian/bayesian.py', wdir='C:/Users/LiLong/Desktop/Bayesian') minLen: 25 660 the error rate is: 0.3

同時錯誤率要遠高于垃圾郵件的錯誤率,由于這里關注的是單詞概率而不是實際分類,此問題不是很嚴重

4. 最具表征性的詞匯顯示函數

# 最具表征性的詞匯顯示函數 def getTopWords(ny,sf):import operatorvocabList,p0V,p1V=localWords(ny,sf)topNY=[]; topSF=[]for i in range(len(p0V)):if p0V[i] > -4.0 : topSF.append((vocabList[i],p0V[i])) #設定閾值if p1V[i] > -4.0 : topNY.append((vocabList[i],p1V[i]))sortedSF = sorted(topSF, key=lambda pair: pair[1], reverse=True)#print 'sortedSF:',sortedSFprint "SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**"for item in sortedSF:print item[0]sortedNY = sorted(topNY, key=lambda pair: pair[1], reverse=True)print "NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**"for item in sortedNY:print item[0]

結果:

runfile('C:/Users/LiLong/Desktop/Bayesian/bayesian.py', wdir='C:/Users/LiLong/Desktop/Bayesian') minLen: 25 695 the error rate is: 0.45 SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF** and for the NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY** and for have the you

在此處我把閾值改為了-0.4,可以看出滿足的詞匯就比較少,但是更最具表征性的詞匯。。。

附:列表存儲元組的用法

tt=[('and', 91), ('for', 60)]tt[0] Out[30]: ('and', 91)for i in tt:print i[0]and for

總結

以上是生活随笔為你收集整理的朴素贝叶斯--实战分析的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

日韩中文字幕免费视频 | 国产精彩在线视频 | 日本中文字幕在线免费观看 | 在线免费观看国产 | 五月婷社区 | 亚洲国产中文字幕在线视频综合 | 久久久综合香蕉尹人综合网 | 91大神一区二区三区 | 久草资源在线观看 | 亚洲午夜精品一区二区三区电影院 | 久久久久久电影 | 国产 欧美 在线 | 久久久69 | 日本中文一区二区 | 午夜久久久影院 | 91天天操| 欧洲视频一区 | av成人免费网站 | 天天综合网久久综合网 | 青草草在线| 免费看wwwwwwwwwww的视频 久久久久久99精品 91中文字幕视频 | 青青久草在线视频 | 五月天综合婷婷 | 五月天天在线 | 日韩在线无 | 亚av在线 | 狠狠狠狠狠狠狠干 | 天天插天天射 | 久艹在线播放 | 天天躁日日躁狠狠躁av麻豆 | 黄色大片免费网站 | 中文字幕在线观看不卡 | 韩国精品福利一区二区三区 | 丁香视频全集免费观看 | 青草草在线 | 视频在线精品 | 精品美女在线观看 | 国产精品永久久久久久久久久 | 91av免费看 | 黄色免费观看 | 国产真实在线 | 欧美色婷 | 最新av免费在线 | 青青久草在线视频 | 午夜视频在线观看欧美 | av免费看在线 | 免费看三级黄色片 | 国产中文a | 欧美性直播 | 不卡日韩av| 99久免费精品视频在线观看 | 91国内在线视频 | 欧美亚洲免费在线一区 | 欧美五月婷婷 | 亚洲精品国产第一综合99久久 | 日韩在线免费小视频 | 国产精品九九九九九 | 国产精品人人做人人爽人人添 | 狠狠干美女 | www好男人| 久久激情五月激情 | 久久久亚洲精品 | 一区免费在线 | 亚洲一区免费在线 | 综合五月婷婷 | 91网页版在线观看 | 日韩欧美在线不卡 | 免费看在线看www777 | 一区二区三区日韩精品 | 欧美成人黄色片 | 欧美精品一区二区免费 | 天天爽夜夜爽精品视频婷婷 | 亚洲精品视频中文字幕 | 77国产精品| 国产中文字幕一区二区 | 日日操夜| 中文字幕在线观看你懂的 | 手机在线永久免费观看av片 | 久久玖 | 国产精品视屏 | 99r在线 | av中文字幕亚洲 | 国产精品初高中精品久久 | 4438全国亚洲精品观看视频 | 中文字幕欲求不满 | 在线观看不卡视频 | 一色屋精品视频在线观看 | 91丨九色丨国产丨porny精品 | 久久99精品国产一区二区三区 | 黄色最新网址 | 日韩 在线 | 超碰在线98 | 激情视频网页 | 欧美成人中文字幕 | 国产福利小视频在线 | 在线国产一区 | 狠狠狠狠狠狠狠干 | 超碰免费成人 | 精品在线你懂的 | 国产精品18久久久久久久久久久久 | 久久99网站 | 色婷婷av在线 | 成人一区二区三区在线 | 九九免费精品视频在线观看 | 欧美一级日韩三级 | 亚洲另类视频 | 天天干天天射天天操 | 精品国产午夜 | 人人搞人人爽 | 国产资源网 | av免费福利 | 97综合在线 | 国内精品久久久久久久久久久 | 婷婷色五 | 欧美一区二区伦理片 | 国产一区二区在线播放 | 夜夜狠狠 | 狠狠躁天天躁 | 亚洲妇女av| 天天艹天天 | 久草国产视频 | 美女黄网久久 | 激情久久久久 | 色噜噜日韩精品欧美一区二区 | www色片| 国产精品夜夜夜一区二区三区尤 | 国产福利专区 | 国产91精品一区二区麻豆亚洲 | 天天操伊人 | 人人爱夜夜操 | 国产黄影院色大全免费 | 色88久久| 久久精品欧美日韩精品 | 天天综合亚洲 | 日韩精品一区二区在线 | 日韩欧美在线观看一区二区三区 | 免费视频91| 亚洲九九精品 | 久久66热这里只有精品 | 在线小视频你懂得 | 天天干,天天草 | 东方av在线免费观看 | 91丨porny丨九色 | 久久999精品 | 亚洲人成在线观看 | 一区二区电影网 | 国产一二区在线观看 | 国产精品视频久久久 | 天天做日日做天天爽视频免费 | 在线精品视频在线观看高清 | 婷婷丁香久久五月婷婷 | 精品亚洲网 | 亚洲成人家庭影院 | 成人全视频免费观看在线看 | 中文字幕在线日 | 九九九免费视频 | 中文字幕一区二 | 欧美色一色| 国产色婷婷在线 | 欧美精品久久久久久 | 在线日韩中文 | 色噜噜噜噜| 国内小视频 | 97精品国产97久久久久久免费 | 国产一区欧美二区 | 黄色av免费看 | 国产福利午夜 | 日本在线观看一区二区三区 | 91成人在线免费观看 | 国产黄a三级三级 | 一区二区三区在线免费观看视频 | 92国产精品久久久久首页 | 视频在线观看入口黄最新永久免费国产 | 国产精品久久99精品毛片三a | 成人性生交视频 | 在线观看黄色的网站 | 亚洲狠狠丁香婷婷综合久久久 | 亚洲桃花综合 | 91在线看黄 | 欧美一区二区日韩一区二区 | 少妇bbw搡bbbb搡bbbb | 高清国产一区 | 免费成人黄色av | 成人四虎 | 午夜精品久久 | a级国产乱理伦片在线播放 久久久久国产精品一区 | 久久亚洲精品电影 | 久久精品韩国 | 免费av一级电影 | av天天草 | 成人av免费在线播放 | 国产精品在线看 | 91精品国产三级a在线观看 | 久久久综合九色合综国产精品 | 日韩中文字幕a | 草久草久 | 叶爱av在线 | 免费看的av片 | 亚洲精品456在线播放乱码 | 色综合五月 | 亚洲精品国产第一综合99久久 | 日韩高清不卡在线 | 视频在线观看入口黄最新永久免费国产 | 久草在线免费在线观看 | 中文在线字幕免 | 天天激情综合 | 91精品国产99久久久久久红楼 | 成人精品视频久久久久 | 国产精品精品视频 | 欧美日一级片 | 色噜噜狠狠狠狠色综合 | 在线视频 91 | 日本在线观看一区二区三区 | 91久久精| 国产一级免费电影 | 97超碰福利久久精品 | 日韩精品大片 | 国产在线a | 日韩三级.com | 在线亚洲观看 | 粉嫩av一区二区三区入口 | 狠狠狠狠狠狠狠干 | 欧美精品久久久久久久久久丰满 | 日韩欧美在线中文字幕 | 久久久久久久久久久久久久免费看 | 在线观看91精品国产网站 | 2000xxx影视 | 一区二区精品视频 | 免费看的黄网站 | 五月婷婷丁香色 | 91在线免费观看网站 | 天天干天天拍 | 亚洲 欧洲 国产 精品 | 欧美一区在线观看视频 | 国产视频亚洲视频 | 丰满少妇一级 | 日韩中午字幕 | 日本黄色黄网站 | 成人在线免费观看网站 | 黄av资源| 久久久www成人免费精品张筱雨 | 69国产成人综合久久精品欧美 | 亚洲综合成人在线 | 国产精彩视频一区 | 免费av一级电影 | 四季av综合网站 | 国产香蕉97碰碰碰视频在线观看 | 国产美女精品人人做人人爽 | 国产精品久久久久久久久久ktv | 精品国产乱码一区二 | 91高清视频免费 | 久久久综合九色合综国产精品 | 国产黄a三级三级 | av电影中文 | 一级免费看 | 色wwwww| 亚洲小视频在线观看 | 九月婷婷综合网 | 在线婷婷| 在线视频成人 | 玖草在线观看 | 日韩av在线一区二区 | 国产电影一区二区三区四区 | 日韩av有码在线 | www一起操| 97精产国品一二三产区在线 | 麻豆影视在线播放 | 中文字幕在线观看完整版电影 | 日韩午夜大片 | 成人午夜黄色 | 丁香五月网久久综合 | 色婷婷免费 | 综合久久久久久久久 | 成人av手机在线 | 狠狠狠色丁香婷婷综合激情 | 天天干天天拍 | 午夜精品久久久久久久久久久 | 亚洲视频一区二区三区在线观看 | 中文字幕久久精品一区 | 丁香婷婷综合五月 | 欧美天堂视频在线 | 夜夜夜影院 | 久久国产精品99精国产 | 国产精品九九久久久久久久 | 91视频链接 | 超碰成人免费电影 | 69国产盗摄一区二区三区五区 | 国产精品久久久久久久久久妇女 | 亚洲国产人午在线一二区 | 国产成人一区在线 | 91视频网址入口 | 欧美日韩在线免费观看 | 最新免费中文字幕 | 天天天天天干 | 亚洲区色 | 成人av影视观看 | 日韩在线免费视频观看 | 一色屋精品视频在线观看 | 国产一区二区不卡视频 | 欧美一级片在线播放 | 91久久奴性调教 | 国内外成人在线 | www视频免费在线观看 | 亚洲狠狠操 | 日韩在线免费观看视频 | 欧美精品在线一区 | 丁香激情综合久久伊人久久 | 毛片99 | 人人添人人澡 | 日韩av一区在线观看 | 五月天色丁香 | 丁香花在线视频观看免费 | 天天操天天操一操 | 久久久久久久影院 | 日日干天天插 | 亚洲高清视频在线 | 日韩电影中文字幕在线观看 | 黄污视频网站 | 精品久久久免费 | 黄色的网站免费看 | 日本久久久精品视频 | 久久精品国产精品亚洲 | 亚洲精品国产精品乱码不99热 | av在线播放国产 | 国产91av视频在线观看 | 亚洲国产精品一区二区久久,亚洲午夜 | 国产中文字幕在线 | 美女av在线免费 | 日韩在线一二三区 | 在线观看中文字幕视频 | 国产精品va视频 | 深夜免费福利网站 | 国产精品18久久久久久久久 | 亚洲激情视频在线 | 久久免费一 | 亚洲精品国产精品久久99 | 国产粉嫩在线 | 国产福利91精品一区二区三区 | 在线观看av麻豆 | 九七人人干 | 丁香婷婷色月天 | 91麻豆精品国产91久久久久久久久 | 精品国产欧美一区二区三区不卡 | 99热九九这里只有精品10 | 亚洲欧美日韩一二三区 | 久久综合狠狠综合 | av在线等 | 亚洲狠狠婷婷综合久久久 | 黄色不卡av | 91九色成人蝌蚪首页 | 日韩丝袜 | 香蕉色综合 | 免费在线成人av | 日本高清xxxx | 又色又爽又黄 | 久久精品久久99精品久久 | 成年人免费观看在线视频 | 亚洲在线激情 | 欧美色伊人 | 麻豆久久| 一级免费片 | 夜色资源站国产www在线视频 | 超碰97人人射妻 | 国产成人av综合色 | 欧美激情片在线观看 | 日日夜夜添 | 日韩高清一二区 | 丝袜护士aⅴ在线白丝护士 天天综合精品 | 国产免费一区二区三区网站免费 | 黄色av一区二区三区 | 三级a视频 | 色是在线视频 | 91av视频导航 | 国产精品免费观看网站 | 韩国av电影在线观看 | 国产精品a级 | 亚洲影院天堂 | 日韩影片在线观看 | 婷婷国产v亚洲v欧美久久 | 久久国产精品99国产精 | 久久99精品国产麻豆婷婷 | 玖玖精品在线 | 91传媒在线观看 | 成人免费观看完整版电影 | 91久久国产露脸精品国产闺蜜 | 996久久国产精品线观看 | 欧美欧美 | 久久精品99国产 | 在线观看亚洲 | 久久99国产精品久久99 | 成年人视频在线免费 | 又黄又刺激的视频 | 波多野结衣亚洲一区二区 | 日韩毛片在线一区二区毛片 | 欧美日韩精品区 | 亚洲激情校园春色 | 久久99亚洲网美利坚合众国 | 粉嫩av一区二区三区四区在线观看 | 五月天综合婷婷 | 久久高清视频免费 | 欧美成人精品三级在线观看播放 | 99精品热视频只有精品10 | 精品久久久久久久久久久久久久久久 | 99九九99九九九视频精品 | 91探花视频 | 黄色软件在线观看 | 中文字幕婷婷 | 久久精品久久久精品美女 | 国产精品区二区三区日本 | 久青草视频在线观看 | 麻豆精品视频 | 中文字幕 国产精品 | 国产午夜在线观看 | 中文视频在线 | 日韩69视频 | 超碰激情在线 | 伊香蕉大综综综合久久啪 | 精品久久精品久久 | 亚洲精品成人 | 久久视频精品 | 亚洲高清激情 | 操综合| 亚洲 欧洲av | 在线视频在线观看 | 国产精品理论片在线播放 | www.天天色.com| av在线日韩 | 一区二区三区电影大全 | 成人国产电影在线观看 | 最近中文字幕免费观看 | 91精品国产一区二区在线观看 | 成人性生交大片免费观看网站 | 久久一区二区三区国产精品 | 成片视频在线观看 | 麻豆国产精品视频 | 国产免费又粗又猛又爽 | 啪啪免费视频网站 | 黄色91在线观看 | 国产精品久久久久久欧美 | 亚洲首页| 欧美另类xxxxx| 日韩理论电影在线 | 美女视频黄在线 | 免费看污在线观看 | 国产品久精国精产拍 | 美女免费视频黄 | 美女视频网站久久 | 操综合| 欧美大jb| www.av在线.com | 99热这里有 | 国产精品美女久久久免费 | 国产成人黄色网址 | 久久理论视频 | 婷婷丁香社区 | 精品国产网址 | 狠狠色狠狠色综合日日小说 | 中文在线 | av在线收看 | 一区二区视频在线免费观看 | 国产精品九九热 | 国产亚洲视频在线 | 色插综合 | 精品国产欧美 | 国产精品毛片一区视频播 | 综合黄色网 | 91看片淫黄大片在线播放 | 亚洲韩国一区二区三区 | 丁香花在线视频观看免费 | 亚洲综合欧美激情 | 亚洲精品女人久久久 | 国产小视频在线 | 国产亚洲情侣一区二区无 | 亚洲精选久久 | 国产精品系列在线观看 | 在线99热 | 国产精品18毛片一区二区 | 开心婷婷色 | 亚洲一区网 | 五月激情电影 | 91在线91| 久久夜色精品国产亚洲aⅴ 91chinesexxx | 欧洲精品视频一区 | 亚洲无吗av| 久精品视频在线 | 久久九九免费视频 | av线上免费观看 | 麻豆视频在线播放 | 国产精品国产三级国产aⅴ无密码 | 91福利国产在线观看 | 91看片在线 | 久久公开免费视频 | 在线成人看片 | 激情久久综合网 | 久草免费在线观看 | 欧美日韩国产一区二区在线观看 | 亚洲精品在线观看不卡 | 一区二区在线影院 | 一区二区三区在线看 | 在线观看国产高清视频 | 婷婷在线色 | 色综合天天射 | 久久久久久久久久久网站 | 久草在线资源视频 | 亚洲小视频在线 | 欧美精品首页 | 美女国产网站 | 就要色综合 | 国产在线视频导航 | 三上悠亚一区二区在线观看 | 又爽又黄在线观看 | 国产剧情一区二区 | 在线视频久久 | 97人人模人人爽人人喊网 | 最近av在线| 国产成人精品久久 | 97超碰成人 | 欧美色图东方 | 亚洲视屏 | 一区二区三区在线视频观看58 | 久久久99精品免费观看app | 亚洲激情小视频 | 丁香电影小说免费视频观看 | 在线观看免费黄视频 | 精品国产三级a∨在线欧美 免费一级片在线观看 | 日韩一级电影网站 | 国产一级黄色免费看 | 亚洲视频一区二区三区在线观看 | 视频91在线 | 丁香色综合 | 久久人网 | 亚洲精品女 | 日韩成人在线免费观看 | 久久精品亚洲综合专区 | 亚洲成人网在线 | 不卡电影免费在线播放一区 | 美女黄频在线观看 | 黄色网在线播放 | 免费在线观看一区 | 这里只有精彩视频 | 欧美日韩久久久 | 黄色网址中文字幕 | sesese图片| 超碰在线最新 | 免费在线观看成人 | 欧美成人xxxxxxxx | 国产精品永久免费观看 | 日韩高清在线看 | 亚洲精品日韩在线观看 | 国产精品久久久久久久7电影 | 美女免费电影 | 国产精品18久久久久久vr | 亚洲精品国精品久久99热一 | 日韩欧美精品一区二区 | 国产伦精品一区二区三区无广告 | 婷婷九月激情 | 亚洲精品国偷拍自产在线观看蜜桃 | 激情大尺度视频 | 在线视频1卡二卡三卡 | 亚洲精品大全 | 亚洲国产成人av网 | 搡bbbb搡bbb视频 | 免费av试看| 日韩在线观看第一页 | 奇米影音四色 | 丁香六月色 | 色视频网站在线观看一=区 a视频免费在线观看 | 91伊人久久大香线蕉蜜芽人口 | 欧美日韩中 | 91视频 - v11av| 国产精品免费观看视频 | 99久精品 | 成年人av在线播放 | 久久国产a | 国产69精品久久久久9999apgf | 国产91国语对白在线 | 久久国产精品小视频 | 久久爱992xxoo| 国内精品久久久久影院优 | 久草视频在线播放 | 在线免费高清一区二区三区 | 中文字幕电影在线 | 欧美精品一区二区三区四区在线 | 91香蕉嫩草 | 亚洲精选99| 香蕉影视 | 国产黄色片在线 | 手机看国产毛片 | 日韩一区二区在线免费观看 | 久久国产麻豆 | 男女啪啪视屏 | 成年人视频在线免费播放 | 日韩av中文字幕在线 | 人人澡视频| 欧美性春潮 | 成年人在线免费看视频 | 久久伊人国产精品 | 99久久国产免费看 | 四虎在线免费观看 | 国产只有精品 | 中文十次啦 | 伊人国产在线观看 | 狠狠狠色丁香婷婷综合久久五月 | 亚洲成av人片在线观看www | 国产品久精国精产拍 | 九九九视频在线 | 在线国产能看的 | 激情五月婷婷综合网 | 国内外成人在线 | 91成人精品观看 | 天天干天天拍天天操 | 成人小视频在线免费观看 | 18pao国产成视频永久免费 | 国产精品高潮呻吟久久av无 | 人人要人人澡人人爽人人dvd | 久久综合给合久久狠狠色 | 91视频在线看 | 激情婷婷久久 | 在线观看激情av | 亚洲aⅴ久久精品 | 91麻豆国产福利在线观看 | 亚洲爱爱视频 | 午夜三级理论 | 99精品在线观看视频 | 日韩超碰 | 日韩亚洲国产精品 | 国产免费成人av | 天天操操操操操操 | 97**国产露脸精品国产 | 欧美性生交大片免网 | 美女中文字幕 | 久久激情视频免费观看 | 国产第一福利 | 国产精品自产拍在线观看网站 | 午夜少妇av | 天堂在线一区二区 | 久久99久| 久久久久成人免费 | 99精品免费久久久久久久久日本 | 久久国产精品免费看 | 婷婷成人综合 | 久久只精品99品免费久23小说 | 一本到在线| av成人资源| 一本一本久久a久久精品牛牛影视 | 欧美一区二区免费在线观看 | 日韩欧美一区二区三区在线观看 | 亚洲 欧美变态 另类 综合 | 三级黄色大片在线观看 | 久久精品久久久久 | 国产精品久久一区二区三区, | 国产精品久久久久永久免费 | 免费日韩电影 | 免费观看国产视频 | 国产色视频网站2 | 日本中文字幕在线电影 | 狠狠色丁香| 久久久久久久久久久影视 | 亚洲.www | 亚洲桃花综合 | 中文字幕av在线免费 | 欧美在线久久 | 欧美一级视频免费 | 国产精品久久久久久久av电影 | 日本高清久久久 | 免费的黄色av | 国产美女视频免费观看的网站 | 欧美日韩高清在线 | 高清免费在线视频 | 色婷婷六月| 久久久久久久福利 | 国产一区二区观看 | 中文字幕网站 | 欧美成人精品xxx | 久久久精品久久 | 国产精品无av码在线观看 | 91豆花在线观看 | 一区二区三区高清在线观看 | 六月天综合网 | 在线免费中文字幕 | 在线观看日韩一区 | 欧美天天综合 | 四虎成人免费影院 | 午夜三级影院 | 久久电影色 | 欧美二区在线播放 | 六月丁香婷婷久久 | 日韩精品网址 | 免费精品视频在线观看 | 久久久久久高潮国产精品视 | 久久免视频 | 91最新地址永久入口 | 91福利影院在线观看 | 国产一区观看 | 免费一级日韩欧美性大片 | 性色av香蕉一区二区 | 人人看人人爱 | 国产一区欧美日韩 | 十八岁免进欧美 | 国产一区二区三区午夜 | 九九免费在线视频 | 国产精品成人自产拍在线观看 | 国产福利不卡视频 | 国产精品九九九九九 | 国产精品久久久久久久久久久久冷 | 成人性生活大片 | 五月的婷婷 | 中文字幕丝袜 | 在线免费看黄色 | 亚洲欧美婷婷六月色综合 | 97夜夜澡人人爽人人免费 | 免费黄色一区 | 日本视频精品 | 日韩在线免费高清视频 | 亚洲女人av | 日韩专区 在线 | 免费福利小视频 | 欧美狠狠色| 日韩精品久久一区二区三区 | 欧美一区二区三区在线观看 | www久久久 | 国产一区视频导航 | 91大神电影 | 国产午夜精品一区二区三区在线观看 | 97夜夜澡人人双人人人喊 | 国产日本在线 | 蜜臀av性久久久久蜜臀aⅴ四虎 | 国产视 | 色中色综合 | 99 色| 日韩精品视频第一页 | 日韩电影在线观看一区二区三区 | 特级毛片爽www免费版 | 国产区在线视频 | 美女视频黄免费的 | 涩涩网站在线播放 | 色多多视频在线观看 | 一区二区网 | 丁香花中文在线免费观看 | 精品久久久久久久久久久院品网 | 激情五月婷婷综合网 | 国产精品久久久久影院 | 中文字幕在线观看日本 | 日韩狠狠操| 亚洲区另类春色综合小说校园片 | 国产亚洲精品女人久久久久久 | 免费在线播放 | av大全在线 | 日韩视频在线观看免费 | 国产精品久久久久久久av电影 | 欧美性爽爽 | 精品国产1区二区 | 国产福利一区在线观看 | 久国产在线播放 | 深爱激情站| av导航福利 | 日韩丝袜在线观看 | 婷婷播播网 | 黄色三级视频片 | 激情五月婷婷 | 久久久久久久久久久久久9999 | 久久超碰97| 在线av资源 | 久久99久久99精品免观看粉嫩 | 91免费高清观看 | 91欧美在线 | 欧美日韩一区二区在线观看 | 天天玩天天干天天操 | 亚洲综合视频在线播放 | 日韩精品一区二区在线观看 | 免费观看的av | 国产精品色在线 | 91成人观看 | 日韩免费三区 | 日本久久久久久久久 | 婷婷丁香社区 | 超碰在线官网 | 久久久久国产成人免费精品免费 | 免费在线观看av的网站 | 国产一级在线观看视频 | 最近最新中文字幕视频 | 成人黄色国产 | 亚洲天堂网视频在线观看 | 91亚洲精品久久久蜜桃 | av在线激情| 大荫蒂欧美视频另类xxxx | 国产v欧美 | 永久免费的啪啪网站免费观看浪潮 | 亚洲三级黄 | 精品久久九九 | 欧美精品亚洲精品日韩精品 | 99精品久久精品一区二区 | 一级片免费在线 | 在线视频电影 | 亚洲欧洲国产视频 | 久久99视频免费 | 99久久精品免费 | 亚洲三级国产 | 91电影福利 | 国产精品乱码久久久 | 激情动态| 天天干天天色2020 | 日本三级在线观看中文字 | 国产一区二区在线播放 | 国产三级av在线 | 国产精久久久久久妇女av | 欧美日韩免费一区二区 | 伊人首页| 欧美另类视频 | 亚洲国产精品成人女人久久 | 久久电影国产免费久久电影 | 亚洲精品欧洲精品 | 日韩电影在线观看中文字幕 | 中文字幕一区在线观看视频 | 久久久av电影 | 亚洲国产精品va在线看黑人动漫 | 91精品黄色| 欧美性色综合 | 色婷在线 | 久久久久久高清 | 久久久高清免费视频 | 午夜视频在线观看一区二区 | 久久精品99国产精品 | 国产精品99视频 | 国产美女免费看 | 亚洲精品大片www | 久久a国产 | 国产午夜精品理论片在线 | 黄色avwww | 亚洲伦理电影在线 | 国产在线不卡视频 | 亚洲视频综合在线 | 欧美日韩亚洲第一 | 久久久国产一区二区 | 夜夜躁狠狠躁 | 国产91精品久久久久 | 狠狠干在线 | 久久成人国产精品入口 | 精品专区一区二区 | 国产婷婷精品 | 粉嫩av一区二区三区四区在线观看 | 狠狠操狠狠干天天操 | 91成人在线网站 | 三三级黄色片之日韩 | 2022久久国产露脸精品国产 | 国产一区二区精品 | 免费视频久久久久久久 | 亚洲欧美日本一区二区三区 | 男女激情网址 | 中文字幕日韩在线播放 | 亚洲成av人片 | 91在线九色 | 婷婷av在线| 久久激情精品 | 久草在线这里只有精品 | 丁香综合五月 | 香蕉久草| 欧美怡红院 | 91视频 - 114av | 精品久久久久久国产91 | 国产 亚洲 欧美 在线 | 在线日韩视频 | 狠狠操欧美 | 亚州精品国产 | 韩国一区二区在线观看 | 97超碰在线视 | av一区在线| www91在线| 在线免费观看黄色大片 | 免费视频 三区 | 日韩精品中文字幕在线不卡尤物 | 成人蜜桃 | 国产99久久久国产精品成人免费 | 亚洲国产视频在线 | 香蕉精品视频在线观看 | 狠狠色伊人亚洲综合成人 | a级国产乱理论片在线观看 特级毛片在线观看 | 91久久人澡人人添人人爽欧美 | 国产99精品 | 日韩中字在线 | 国产成人av电影在线 | 97超碰在线播放 | 亚洲国产精品视频 | 九色视频网站 | 日韩三区在线观看 | 国产亚洲在| 久久久综合九色合综国产精品 | 国产成人99av超碰超爽 | 久久精品一区二区三区视频 | 日韩午夜高清 | 国产区免费 | 成人午夜影院 | 久99热| 国产精品区免费视频 | 午夜精品成人一区二区三区 | 欧美色图狠狠干 | 精品欧美乱码久久久久久 | 深夜国产福利 | 色吊丝在线永久观看最新版本 | 看片的网址 | 色 免费观看 | 午夜精品电影一区二区在线 | 精品一区二区综合 | 特级黄录像视频 | 2020天天干夜夜爽 | 91九色视频网站 | 免费在线播放av电影 | 亚洲一区二区麻豆 | 91九色最新| 久久免费电影网 | 97超碰免费在线观看 | 高清美女视频 | 中文字幕xxxx | 玖草在线观看 | 日韩在线网 | 91精品在线看| 在线免费观看国产 | 玖玖视频| 成年人免费看的视频 | 日韩视频一区二区在线观看 | 亚洲一区不卡视频 | 成人在线免费看 | 国产二区精品 | 精品国偷自产在线 | 黄色a一级视频 | 日批在线看 | 成人精品亚洲 | 亚洲不卡123 | 在线观看一区二区精品 | 久久理伦片 | 国产一区二区在线免费播放 | 麻豆视频网址 | 国产伦精品一区二区三区无广告 | 国产一区二区三区在线 | 激情av资源网 | 99久久日韩精品免费热麻豆美女 | 玖玖色在线观看 | 中文字幕一区二区在线播放 | av黄色在线观看 | 美女激情影院 | 91在线免费视频观看 | 欧美久久久久久久久久久 | 国产精品久久久视频 | 久久99精品国产一区二区三区 | 天天色天天上天天操 | 9在线观看免费高清完整 | 婷婷色视频| 亚州人成在线播放 | 国产免费大片 | 日韩综合一区二区 | 97在线精品国自产拍中文 | 免费一级特黄毛大片 | 中文字幕在线视频一区 | .国产精品成人自产拍在线观看6 | 天天操夜夜看 | 久久激情影院 | 日韩精品中文字幕久久臀 | 在线观看91久久久久久 | 国产精品久久艹 | 91丨九色丨国产女 | 国产亚洲精品久久久久久久久久久久 | 久久婷婷激情 | 欧美激情xxxx | 色综合久久久久综合99 | 欧美一区二区三区在线观看 | 91精品国产成人观看 | 99久久这里有精品 | 亚洲性xxxx| 91av网址 | 精品在线观看国产 | 日韩在线视频免费看 | 国产精品精品国产婷婷这里av | 成人免费xyz网站 | 成人久久 | 国产精品久久久久久久久久妇女 | 三级黄色免费片 | 国产精品成人免费一区久久羞羞 | www.五月天婷婷 | 国产亚洲久一区二区 | 免费在线黄色av | 亚洲成a人片在线观看网站口工 | 丁香婷婷网 | 成人免费一区二区三区在线观看 | 黄色精品久久久 | 国产色视频一区 | 日本三级吹潮在线 | 国产亚洲精品久久久久久 | 一区二区三区在线免费观看视频 | 日本久久久久久 | 精品久久久久久久久中文字幕 | 狠狠88综合久久久久综合网 | 人人看97 | 日韩精品不卡 | 亚洲精品乱码久久久久久高潮 | 六月丁香婷 | 欧美性做爰猛烈叫床潮 | 夜夜操天天摸 | 日韩中文字幕亚洲一区二区va在线 |