日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

【深度学生】使用深度学习阅读和分类扫描文档

發布時間:2025/3/12 pytorch 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【深度学生】使用深度学习阅读和分类扫描文档 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

收集數據

首先,我們要做的第一件事是創建一個簡單的數據集,這樣我們就可以測試我們工作流程的每一部分。理想情況下,我們的數據集將包含各種易讀性和時間段的掃描文檔,以及每個文檔所屬的高級主題。我找不到具有這些精確規格的數據集,所以我開始構建自己的數據集。我決定的高層次話題是政府、信件、吸煙和專利,隨機的選擇這些主要是因為每個地區都有各種各樣的掃描文件。

我從這些來源中的每一個中挑選了 20 個左右的大小合適的文檔,并將它們放入由主題定義的單獨文件夾中。

經過將近一整天的搜索和編目所有圖像后,我們將它們全部調整為 600x800 并將它們轉換為 PNG 格式。

簡單的調整大小和轉換腳本如下:

from PIL import Imageimg_folder = r'F:\Data\Imagery\OCR' # Folder containing topic folders (i.e "News", "Letters" ..etc.)for subfol in os.listdir(img_folder): # For each of the topic folderssfpath = os.path.join(img_folder, subfol)for imgfile in os.listdir(sfpath): # Get all images in the topicimgpath = os.path.join(sfpath, imgfile)img = Image.open(imgpath) # Read in the image with Pillowimg = img.resize((600,800)) # Resize the imagenewip = imgpath[0:-4] + ".png" # Convert to PNGimg.save(newip) # Save


構建OCR管道

光學字符識別是從圖像中提取文字的過程。這通常是通過機器學習模型完成的,最常見的是通過包含卷積神經網絡的管道來完成。雖然我們可以為我們的應用程序訓練自定義 OCR 模型,但它需要更多的訓練數據和計算資源。相反,我們將使用出色的 Microsoft 計算機視覺 API,其中包括專門用于 OCR 的特定模塊。API 調用將使用圖像(作為 PIL 圖像)并輸出幾位信息,包括圖像上文本的位置/方向作為以及文本本身。以下函數將接收一個 PIL 圖像列表并輸出一個大小相等的提取文本列表:

def image_to_text(imglist, ndocs=10):'''Take in a list of PIL images and return a list of extracted text using OCR'''headers = {# Request headers'Content-Type': 'application/octet-stream','Ocp-Apim-Subscription-Key': 'YOUR_KEY_HERE',}params = urllib.parse.urlencode({# Request parameters'language': 'en','detectOrientation ': 'true',})outtext = []docnum = 0for cropped_image in imglist:print("Processing document -- ", str(docnum))# Cropped image must have both height and width > 50 px to run Computer Vision API#if (cropped_image.height or cropped_image.width) < 50:# cropped_images_ocr.append("N/A")# continueocr_image = cropped_imageimgByteArr = io.BytesIO()ocr_image.save(imgByteArr, format='PNG')imgByteArr = imgByteArr.getvalue()try:conn = http.client.HTTPSConnection('westus.api.cognitive.microsoft.com')conn.request("POST", "/vision/v1.0/ocr?%s" % params, imgByteArr, headers)response = conn.getresponse()data = json.loads(response.read().decode("utf-8"))curr_text = []for r in data['regions']:for l in r['lines']:for w in l['words']:curr_text.append(str(w['text']))conn.close()except Exception as e:print("Could not process imageouttext.append(' '.join(curr_text))docnum += 1return(outtext)


后期處理

由于在某些情況下我們可能希望在這里結束我們的工作流程,而不是僅僅將提取的文本作為一個巨大的列表保存在內存中,我們還可以將提取的文本寫入與原始輸入文件同名的單個 txt 文件中。微軟的OCR技術雖然不錯,但偶爾也會出錯。????我們可以使用 SpellChecker 模塊減少其中的一些錯誤,以下腳本接受輸入和輸出文件夾,讀取輸入文件夾中的所有掃描文檔,使用我們的 OCR 腳本讀取它們,運行拼寫檢查并糾正拼寫錯誤的單詞,最后將原始txt文件導出目錄。

''' Read in a list of scanned images (as .png files > 50x50px) and output a set of .txt files containing the text content of these scans '''from functions import preprocess, image_to_text from PIL import Image import os from spellchecker import SpellChecker import matplotlib.pyplot as pltINPUT_FOLDER = r'F:\Data\Imagery\OCR2\Images' OUTPUT_FOLDER = r'F:\Research\OCR\Outputs\AllDocuments'## First, read in all the scanned document images into PIL images scanned_docs_path = os.listdir(INPUT_FOLDER) scanned_docs_path = [x for x in scanned_docs_path if x.endswith('.png')] scanned_docs = [Image.open(os.path.join(INPUT_FOLDER, path)) for path in scanned_docs_path]## Second, utilize Microsoft CV API to extract text from these images using OCR scanned_docs_text = image_to_text(scanned_docs)## Third, remove mis-spellings that might have occured from bad OCR readings spell = SpellChecker() for i in range(len(scanned_docs_text)):clean = scanned_docs_text[i]misspelled = spell.unknown(clean)clean = clean.split(" ")for word in range(len(clean)):if clean[word] in misspelled:clean[word] = spell.correction(clean[word])# Get the one `most likely` answerclean = ' '.join(clean)scanned_docs_text[i] = clean## Fourth, write the extracted text to individual .txt files with the same name as input files for k in range(len(scanned_docs_text)): # For each scanned documenttext = scanned_docs_text[k]path = scanned_docs_path[k] # Get the corresponding input filenametext_file_path = path[:-4] + ".txt" # Create the output text filetext_file = open(text_file_path, "wt")n = text_file.write(text) # Write the text to the ouput text filetext_file.close()print("Done")


為建模準備文本

如果我們的掃描文檔集足夠大,將它們全部寫入一個大文件夾會使它們難以分類,并且我們可能已經在文檔中進行了某種隱式分組。如果我們大致了解我們擁有多少種不同的“類型”或文檔主題,我們可以使用主題建模來幫助自動識別這些。這將為我們提供基礎架構,以根據文檔內容將 OCR 中識別的文本拆分為單獨的文件夾,我們將使用該主題模型被稱為LDA。為了運行這個模型,我們需要對我們的數據進行更多的預處理和組織,因此為了防止我們的腳本變得冗長和擁擠,我們將假設已經使用上述工作流程讀取了掃描的文檔并將其轉換為 txt 文件. 然后主題模型將讀入這些 txt 文件,將它們分類到我們指定的任意多個主題中,并將它們放入適當的文件夾中。

我們將從一個簡單的函數開始,讀取文件夾中所有輸出的 txt 文件,并將它們讀入包含 (filename, text) 的元組列表。

def read_and_return(foldername, fileext='.txt'):'''Read all text files with fileext from foldername, and place them into a list of tuples as[(filename, text), ... , (filename, text)]'''allfiles = os.listdir(foldername)allfiles = [os.path.join(foldername, f) for f in allfiles if f.endswith(fileext)]alltext = []for filename in allfiles:with open(filename, 'r') as f:alltext.append((filename, f.read()))f.close()return(alltext) # Returns list of tuples [(filename, text), ... (filename,text)]

接下來,我們需要確保所有無用的詞(那些不能幫助我們區分特定文檔主題的詞)。我們將使用三種不同的方法來做到這一點:

  • 刪除停用詞

  • 去除標簽、標點、數字和多個空格

  • TF-IDF 過濾

  • 為了實現所有這些(以及我們的主題模型),我們將使用 Gensim 包。下面的腳本將對文本列表(上述函數的輸出)運行必要的預處理步驟并訓練 LDA 模型。

    from gensim import corpora, models, similarities from gensim.parsing.preprocessing import remove_stopwords, preprocess_stringdef preprocess(document):clean = remove_stopwords(document)clean = preprocess_string(document) return(clean)def run_lda(textlist, num_topics=10,preprocess_docs=True):'''Train and return an LDA model against a list of documents'''if preprocess_docs:doc_text = [preprocess(d) for d in textlist]dictionary = corpora.Dictionary(doc_text)corpus = [dictionary.doc2bow(text) for text in doc_text]tfidf = models.tfidfmodel.TfidfModel(corpus)transformed_tfidf = tfidf[corpus]lda = models.ldamulticore.LdaMulticore(transformed_tfidf, num_topics=num_topics, id2word=dictionary)return(lda, dictionary)


    使用模型對文檔進行分類

    一旦我們訓練了我們的 LDA 模型,我們就可以使用它來將我們的訓練文檔集(以及可能出現的未來文檔)分類為主題,然后將它們放入適當的文件夾中。

    對新的文本字符串使用經過訓練的 LDA 模型需要一些麻煩,所有的復雜性都包含在下面的函數中:

    def find_topic(textlist, dictionary, lda):'''https://stackoverflow.com/questions/16262016/how-to-predict-the-topic-of-a-new-query-using-a-trained-lda-model-using-gensimFor each query ( document in the test file) , tokenize the query, create a feature vector just like how it was done while trainingand create text_corpus'''text_corpus = []for query in textlist:temp_doc = tokenize(query.strip())current_doc = []temp_doc = list(temp_doc)for word in range(len(temp_doc)):current_doc.append(temp_doc[word])text_corpus.append(current_doc)'''For each feature vector text, lda[doc_bow] gives the topicdistribution, which can be sorted in descending order to print the very first topic''' tops = []for text in text_corpus:doc_bow = dictionary.doc2bow(text)topics = sorted(lda[doc_bow],key=lambda x:x[1],reverse=True)[0]tops.append(topics)return(tops)

    最后,我們需要另一種方法來根據主題索引獲取主題的實際名稱:

    def topic_label(ldamodel, topicnum):alltopics = ldamodel.show_topics(formatted=False)topic = alltopics[topicnum]topic = dict(topic[1])return(max(topic, key=lambda key: topic[key]))

    現在,我們可以將上面編寫的所有函數粘貼到一個接受輸入文件夾、輸出文件夾和主題計數的腳本中。該腳本將讀取輸入文件夾中所有掃描的文檔圖像,將它們寫入txt 文件,構建LDA 模型以查找文檔中的高級主題,并根據文檔主題將輸出的txt 文件歸類到文件夾中。

    ################################################################# # This script takes in an input folder of scanned documents # # and reads these documents, seperates them into topics # # and outputs raw .txt files into the output folder, seperated # # by topic # #################################################################import os from PIL import Image import base64 import http.client, urllib.request, urllib.parse, urllib.error, base64 import io import json import requests import urllib from gensim import corpora, models, similarities from gensim.utils import tokenize from gensim.parsing.preprocessing import remove_stopwords, preprocess_string import http import shutil import tqdmdef filter_for_english(text):dict_url = 'https://raw.githubusercontent.com/first20hours/' \'google-10000-english/master/20k.txt'dict_words = set(requests.get(dict_url).text.splitlines())english_words = tokenize(text)english_words = [w for w in english_words if w in list(dict_words)]english_words = [w for w in english_words if (len(w)>1 or w.lower()=='i')]return(' '.join(english_words))def preprocess(document):clean = filter_for_english(document)clean = remove_stopwords(clean)clean = preprocess_string(clean) # Remove non-english wordsreturn(clean)def read_and_return(foldername, fileext='.txt', delete_after_read=False):allfiles = os.listdir(foldername)allfiles = [os.path.join(foldername, f) for f in allfiles if f.endswith(fileext)]alltext = []for filename in allfiles:with open(filename, 'r') as f:alltext.append((filename, f.read()))f.close()if delete_after_read:os.remove(filename)return(alltext) # Returns list of tuples [(filename, text), ... (filename,text)]def image_to_text(imglist, ndocs=10):'''Take in a list of PIL images and return a list of extracted text'''headers = {# Request headers'Content-Type': 'application/octet-stream','Ocp-Apim-Subscription-Key': '89279deb653049078dd18b1b116777ea',}params = urllib.parse.urlencode({# Request parameters'language': 'en','detectOrientation ': 'true',})outtext = []docnum = 0for cropped_image in tqdm.tqdm(imglist, total=len(imglist)):# Cropped image must have both height and width > 50 px to run Computer Vision API#if (cropped_image.height or cropped_image.width) < 50:# cropped_images_ocr.append("N/A")# continueocr_image = cropped_imageimgByteArr = io.BytesIO()ocr_image.save(imgByteArr, format='PNG')imgByteArr = imgByteArr.getvalue()try:conn = http.client.HTTPSConnection('westus.api.cognitive.microsoft.com')conn.request("POST", "/vision/v1.0/ocr?%s" % params, imgByteArr, headers)response = conn.getresponse()data = json.loads(response.read().decode("utf-8"))curr_text = []for r in data['regions']:for l in r['lines']:for w in l['words']:curr_text.append(str(w['text']))conn.close()except Exception as e:print("[Errno {0}] {1}".format(e.errno, e.strerror))outtext.append(' '.join(curr_text))docnum += 1return(outtext)def run_lda(textlist, num_topics=10,return_model=False,preprocess_docs=True):'''Train and return an LDA model against a list of documents'''if preprocess_docs:doc_text = [preprocess(d) for d in textlist]dictionary = corpora.Dictionary(doc_text)corpus = [dictionary.doc2bow(text) for text in doc_text]tfidf = models.tfidfmodel.TfidfModel(corpus)transformed_tfidf = tfidf[corpus]lda = models.ldamulticore.LdaMulticore(transformed_tfidf, num_topics=num_topics, id2word=dictionary)input_doc_topics = lda.get_document_topics(corpus)return(lda, dictionary)def find_topic(text, dictionary, lda):'''https://stackoverflow.com/questions/16262016/how-to-predict-the-topic-of-a-new-query-using-a-trained-lda-model-using-gensimFor each query ( document in the test file) , tokenize the query, create a feature vector just like how it was done while trainingand create text_corpus'''text_corpus = []for query in text:temp_doc = tokenize(query.strip())current_doc = []temp_doc = list(temp_doc)for word in range(len(temp_doc)):current_doc.append(temp_doc[word])text_corpus.append(current_doc)'''For each feature vector text, lda[doc_bow] gives the topicdistribution, which can be sorted in descending order to print the very first topic''' tops = []for text in text_corpus:doc_bow = dictionary.doc2bow(text)topics = sorted(lda[doc_bow],key=lambda x:x[1],reverse=True)[0]tops.append(topics)return(tops)def topic_label(ldamodel, topicnum):alltopics = ldamodel.show_topics(formatted=False)topic = alltopics[topicnum]topic = dict(topic[1])import operatorreturn(max(topic, key=lambda key: topic[key]))INPUT_FOLDER = r'F:/Research/OCR/Outputs/AllDocuments' OUTPUT_FOLDER = r'F:/Research/OCR/Outputs/AllDocumentsByTopic' TOPICS = 4if __name__ == '__main__':print("Reading scanned documents")## First, read in all the scanned document images into PIL imagesscanned_docs_fol = r'F:/Research/OCR/Outputs/AllDocuments'scanned_docs_path = os.listdir(scanned_docs_fol)scanned_docs_path = [os.path.join(scanned_docs_fol, p) for p in scanned_docs_path]scanned_docs = [Image.open(x) for x in scanned_docs_path if x.endswith('.png')]## Second, utilize Microsoft CV API to extract text from these images using OCRscanned_docs_text = image_to_text(scanned_docs)print("Post-processing extracted text")## Third, remove mis-spellings that might have occured from bad OCR readingsspell = SpellChecker()for i in range(len(scanned_docs_text)):clean = scanned_docs_text[i]misspelled = spell.unknown(clean)clean = clean.split(" ")for word in range(len(clean)):if clean[word] in misspelled:clean[word] = spell.correction(clean[word])# Get the one `most likely` answerclean = ' '.join(clean)scanned_docs_text[i] = cleanprint("Writing read text into files")## Fourth, write the extracted text to individual .txt files with the same name as input filesfor k in range(len(scanned_docs_text)): # For each scanned documenttext = scanned_docs_text[k]text = filter_for_english(text)path = scanned_docs_path[k] # Get the corresponding input filenamepath = path.split("\\")[-1]text_file_path = OUTPUT_FOLDER + "//" + path[0:-4] + ".txt" # Create the output text filetext_file = open(text_file_path, "wt")n = text_file.write(text) # Write the text to the ouput text filetext_file.close()# First, read all the output .txt filesprint("Reading files")texts = read_and_return(OUTPUT_FOLDER)print("Building LDA topic model")# Second, train the LDA model (pre-processing is internally done)print("Preprocessing Text")textlist = [t[1] for t in texts]ldamodel, dictionary = run_lda(textlist, num_topics=TOPICS)# Third, extract the top topic for each documentprint("Extracting Topics")topics = []for t in texts:topics.append((t[0], find_topic([t[1]], dictionary, ldamodel)))# Convert topics to topic namesfor i in range(len(topics)):topnum = topics[i][1][0][0]#print(topnum)topics[i][1][0] = topic_label(ldamodel, topnum)# [(filename, topic), ..., (filename, topic)]# Create folders for the topicsprint("Copying Documents into Topic Folders")foundtopics = []for t in topics:foundtopics+= t[1]foundtopics = set(foundtopics)topicfolders = [os.path.join(OUTPUT_FOLDER, f) for f in foundtopics]topicfolders = set(topicfolders)[os.makedirs(m) for m in topicfolders]# Copy files into appropriate topic foldersfor t in topics:filename, topic = tsrc = filenamefilename = filename.split("\\")dest = os.path.join(OUTPUT_FOLDER, topic[0])dest = dest + "/" + filename[-1]copystr = "copy " + src + " " + destshutil.copyfile(src, dest)os.remove(src)print("Done")

    本文代碼Github鏈接:

    https://github.com/ShairozS/Scan2Topic

    往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯《統計學習方法》的代碼復現專輯 AI基礎下載黃海廣老師《機器學習課程》視頻課黃海廣老師《機器學習課程》711頁完整版課件

    本站qq群554839127,加入微信群請掃碼:

    總結

    以上是生活随笔為你收集整理的【深度学生】使用深度学习阅读和分类扫描文档的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    国产精品午夜8888 | 国产 欧美 日本 | 亚洲精品白浆高清久久久久久 | 久久精品韩国 | 美女视频网 | 久久精品成人热国产成 | 91精品国产91久久久久福利 | 亚洲一区二区精品视频 | 日日夜夜精品 | 99久久这里只有精品 | 午夜久久网站 | 免费h漫在线观看 | 五月婷在线观看 | 亚洲九九爱 | 久久黄色a级片 | 在线观看黄色大片 | www.xxx.性狂虐 | jizz999| 欧美激情一区不卡 | 国产视频一区在线播放 | 在线观看国产麻豆 | 国产无遮挡又黄又爽在线观看 | 在线观看日韩精品视频 | www.久久久精品 | 精品国产免费人成在线观看 | 免费福利视频网 | 久久国产系列 | 婷婷激情av | 毛片网站在线看 | 亚洲成人二区 | 天天干夜夜爱 | 999国产精品视频 | av电影免费在线播放 | 欧美在线视频免费 | 成人精品一区二区三区电影免费 | 免费观看性生交大片3 | 视频在线日韩 | 国产精品一区二区中文字幕 | 日韩深夜在线观看 | 国产高清不卡一区二区三区 | 天天干天天天天 | 亚洲一区二区三区在线看 | 中文字幕在线视频网站 | 插综合网 | 97色在线观看免费视频 | 高清视频一区 | 国产精品手机在线播放 | 精品视频久久 | 亚洲精品黄 | 69视频永久免费观看 | 安徽妇搡bbbb搡bbbb | 六月丁香激情网 | 久久久视频在线 | 91精品国产99久久久久久久 | 麻豆传媒视频观看 | 亚洲精品视频网址 | 日韩在线观看不卡 | 国产午夜在线 | 久草精品视频在线播放 | 久久夜夜操 | 日韩在线精品一区 | 西西444www大胆高清视频 | 国产欧美精品一区aⅴ影院 99视频国产精品免费观看 | 精品久久一区二区三区 | 国产成人精品一区二三区 | 久久亚洲欧美日韩精品专区 | 狠狠色婷婷丁香六月 | 久久国产欧美日韩精品 | 久久国产精品一二三区 | 韩国一区二区av | 欧美大片第1页 | 亚洲三级在线免费观看 | 日本精品久久久久中文字幕 | 在线视频一二区 | 最新午夜电影 | 欧美视频在线二区 | 91一区二区三区久久久久国产乱 | 亚洲一区精品二人人爽久久 | 操操日日 | 在线久久| 亚洲少妇久久 | 91精品在线麻豆 | 不卡的av片| 国产专区在线视频 | 中国一级片在线 | 亚洲狠狠婷婷综合久久久 | 美女黄频视频大全 | 免费在线色 | 人人射人人插 | 久久久国产一区 | 精品国产一区在线观看 | 亚洲有 在线| 久久在线播放 | 91精品免费视频 | 免费在线激情电影 | 91av网址| 激情视频一区二区 | 久久国产精彩视频 | 中文字幕在线播放视频 | 国产高清免费观看 | 久久精品视频播放 | 国产精品免费看久久久8精臀av | 中文字幕在线观看播放 | 亚洲精品无 | 久亚洲 | 国产在线精品一区二区三区 | 亚洲无吗视频在线 | 国产一级电影网 | 97成人啪啪网 | av官网 | 色综合激情网 | 9i看片成人免费看片 | 婷婷丁香激情 | www五月天婷婷 | 日韩欧美在线高清 | 中文字幕精品一区二区精品 | 日本精品在线 | 色综合久久综合 | 少妇bbw搡bbbb搡bbbb | 丁香资源影视免费观看 | 欧美一区中文字幕 | av在线亚洲天堂 | 日韩精品在线免费观看 | 91九色最新地址 | 久草视频视频在线播放 | 天天曰天天 | 干亚洲少妇 | 97国产在线 | 丁香婷婷久久久综合精品国产 | 能在线看的av | 天天干夜夜想 | 四虎成人免费观看 | 久久九九视频 | 日韩欧美一区二区在线播放 | 久久精品视频在线免费观看 | 玖玖视频精品 | 久久久久成人精品亚洲国产 | 日本aaa在线观看 | 玖玖爱免费视频 | 欧美久久久影院 | 干干夜夜 | 操处女逼 | 胖bbbb搡bbbb擦bbbb | 99久久精品免费一区 | 91精品国产麻豆国产自产影视 | 日本性高潮视频 | 在线观看视频你懂 | 99久久爱 | 免费 在线 中文 日本 | 国产色资源 | 婷婷激情在线 | 久久免费福利视频 | 日韩mv欧美mv国产精品 | 夜色资源站国产www在线视频 | 免费观看性生交大片3 | 国产视频资源在线观看 | 狠狠干美女 | 91热爆在线观看 | 亚洲视频一级 | 欧美一二三在线 | 最近中文字幕免费大全 | 在线a视频| 97操操操 | 成人一级视频在线观看 | 99久久日韩精品免费热麻豆美女 | 成年人在线免费看 | 国产精品99久久久久的智能播放 | 久综合网 | 97精品久久人人爽人人爽 | 激情av五月婷婷 | 天天射,天天干 | 91精品高清| 草久热 | 69视频在线 | 中文字幕乱码电影 | 天天色天天综合 | 久久综合色一综合色88 | 国产精品久久久久久久久久久不卡 | 日韩91精品 | 涩涩网站在线播放 | 天天人人综合 | 国产流白浆高潮在线观看 | 国产日韩欧美在线观看视频 | 久久综合久久综合久久综合 | 免费在线激情电影 | www.伊人网.com| 婷婷丁香在线视频 | 国产一级免费电影 | 久久天堂精品视频 | 综合色婷婷 | 国产精品1000 | 亚洲精品视频观看 | 欧美日韩在线视频一区二区 | 久久爱资源网 | 国产精品theporn | 免费看三级 | 在线电影91| 九月婷婷人人澡人人添人人爽 | 91理论电影 | 中文字幕免费高清在线观看 | 精品电影一区 | 91亚洲精品国偷拍 | 亚洲精品国精品久久99热一 | 亚洲欧美日本A∨在线观看 青青河边草观看完整版高清 | 免费精品国产va自在自线 | 国产一区 在线播放 | 伊人六月 | 免费情缘 | 999久久久国产精品 高清av免费观看 | 亚洲一区精品二人人爽久久 | 亚洲精品欧美精品 | 91久久精品一区二区三区 | 99热最新在线 | 国产一区二区免费在线观看 | 麻豆视频免费在线 | 中文字幕在线播放第一页 | 视频一区二区三区视频 | 天天爱天天草 | 亚洲黄色免费在线看 | 亚洲精品在线观看av | 四虎成人网| 丁香5月婷婷久久 | 国产一线天在线观看 | av在线a | 9ⅰ精品久久久久久久久中文字幕 | 国产精品手机看片 | 免费视频色 | av电影在线观看完整版一区二区 | 久久久久久高潮国产精品视 | 色中色综合 | 欧美性一级观看 | 99久在线精品99re8热视频 | 婷婷色在线播放 | 午夜日b视频 | a黄色大片 | 国产高清av免费在线观看 | 天天天插| 久久久久久毛片精品免费不卡 | 天天操天天操天天操 | 一区二区三区手机在线观看 | 欧美一级电影在线观看 | 精品亚洲视频在线 | 色久天| 国产爽妇网 | 国产精品午夜av | 99re中文字幕 | 特级西西444www高清大视频 | 国产精品成人av电影 | 处女av在线 | 午夜精品久久久久久99热明星 | 色婷婷欧美| 人人澡人人澡人人 | 69欧美视频 | 久久99精品久久久久久清纯直播 | 91喷水| 国产中文在线字幕 | 久久精品香蕉视频 | 91精品播放| 日韩欧美有码在线 | 日韩特黄一级欧美毛片特黄 | 国产日韩精品欧美 | 国产一区欧美一区 | 色综合天天色综合 | 在线观看色网 | 特片网久久 | 精品国产一区二区三区久久久蜜臀 | 国产成人一级 | 91色国产在线 | 久久久久亚洲精品男人的天堂 | 久久男人影院 | 欧美精品在线观看免费 | 精品国产_亚洲人成在线 | 成人午夜电影网 | 国产午夜精品免费一区二区三区视频 | 天堂网av 在线 | 99re视频在线观看 | 91精品秘密在线观看 | 有码一区二区三区 | 欧美性成人 | 日韩精品黄 | 久操中文字幕在线观看 | 免费观看特级毛片 | 精品久久久影院 | 色吊丝在线永久观看最新版本 | 国产精品你懂的在线观看 | 天天爽夜夜爽精品视频婷婷 | 色噜噜狠狠狠狠色综合 | 视频一区二区在线观看 | 永久免费毛片在线观看 | 日日爽天天 | 亚洲精品高清在线 | 99re亚洲国产精品 | 国产精品 国产精品 | 四虎永久免费在线观看 | 欧美在线aa | 精品国产视频在线 | 久久久精品久久 | 色大片免费看 | 日韩一区二区三区高清免费看看 | 一区二区高清在线 | 中文字幕二区三区 | 久章草在线观看 | 99久高清在线观看视频99精品热在线观看视频 | 在线成人小视频 | 国产麻豆精品久久 | 久久在线视频精品 | 在线电影日韩 | av免费电影在线观看 | 日韩久久激情 | 欧美日韩免费一区 | 亚洲最大av网 | 国产精品亚洲片在线播放 | 在线观看成人一级片 | 日韩理论电影在线 | 国产亚洲精品成人av久久影院 | 国产精品麻豆果冻传媒在线播放 | 天堂成人在线 | 不卡av在线 | 激情亚洲综合在线 | 波多野结衣在线观看一区二区三区 | 丁香六月婷| 中文字幕在线观看不卡 | 亚洲在线视频免费 | 黄色网免费 | 国产一级在线观看视频 | 一区二区成人国产精品 | 亚洲高清色综合 | 丁香婷婷综合五月 | 国产精品18久久久久久不卡孕妇 | 开心激情久久 | 欧美一级片在线观看视频 | 天天操夜夜操天天射 | 成年人视频在线免费 | 国产香蕉97碰碰久久人人 | 毛片基地黄久久久久久天堂 | 久久婷婷五月综合色丁香 | 在线看国产精品 | 成人黄色大片在线免费观看 | 激情av综合| 青青草华人在线视频 | 波多野结衣视频一区 | 日韩亚洲精品电影 | 久久国产精品系列 | 亚洲女同videos | 久久看片网 | 午夜精品久久一牛影视 | av一级片网站 | 久久精品中文视频 | 日日干天天 | 国产破处在线播放 | 天天综合日日夜夜 | 高清av影院| 国产一级片一区二区三区 | 久久国产福利 | 黄污视频大全 | 99色视频在线 | 色综合天 | 免费黄色av电影 | 国产精品永久免费视频 | 在线精品在线 | 亚洲精品国产精品99久久 | 日韩视频中文字幕在线观看 | 久久69精品| 国产精品一区二区美女视频免费看 | 午夜av网站 | 国产日韩中文字幕 | 天天添夜夜操 | 日韩欧美一区二区三区视频 | 国产成人精品久久亚洲高清不卡 | 国产一区网址 | 日韩在线视频国产 | 久久激情综合 | 成年人黄色免费看 | 天天舔夜夜操 | 在线免费黄网站 | 久久香蕉电影网 | 伊色综合久久之综合久久 | 婷婷亚洲五月色综合 | 成人久久免费视频 | 992tv成人免费看片 | 欧美美女激情18p | 超碰九九 | 成人亚洲精品国产www | 久久桃花网 | 久久综合九色综合欧美就去吻 | 国产精品视频资源 | 国产精品手机视频 | 亚州欧美精品 | 成人国产精品久久久久久亚洲 | 日本中文字幕一二区观 | 久久中文网 | 久久精品79国产精品 | 可以免费观看的av片 | 97av色| av一级一片 | 欧美性生活免费 | 中文在线字幕观看电影 | 中文字幕中文字幕 | 成人资源站| 国产精品成人久久久久 | 黄色av观看| 中文av日韩 | 国产手机av在线 | 97在线观看 | 国产精品一区在线观看你懂的 | 国产高清在线看 | 国产精品国产自产拍高清av | 亚洲最大免费成人网 | 中文字幕在线观看三区 | 日韩久久久久久久久久 | 国产精品久一 | 99久久婷婷国产综合精品 | 字幕网资源站中文字幕 | 国产黄大片在线观看 | 久久久精品福利视频 | 国产在线一区二区三区播放 | 亚洲人毛片 | 欧美天堂视频在线 | 黄色的网站在线 | 欧美日韩一区二区视频在线观看 | 一级黄视频 | 国产伦理久久精品久久久久_ | 激情中文在线 | 天天干天天干天天色 | 九色porny真实丨国产18 | 狠狠干夜夜爽 | 日本中文字幕在线 | 国产精品免费久久久久影院仙踪林 | 国产精品一区二区三区电影 | 超碰国产在线播放 | 综合精品久久久 | 日韩美女黄色片 | 国产精品美 | 99999精品视频 | 国产精品成人品 | 久久久资源 | 亚洲欧美日韩一区二区三区在线观看 | 国产不卡一区二区视频 | 丁香国产视频 | 深夜免费福利网站 | 国产视频一二区 | 国产黄色av网站 | 日韩免费电影在线观看 | 黄色动态图xx | av大全在线看 | 午夜成人影视 | 人人爱人人爽 | 精油按摩av | 91福利社区在线观看 | 免费69视频 | 久久精品中文字幕免费mv | 五月丁婷婷 | 日韩精品aaa| 亚洲在线精品 | 射九九 | 九九在线视频 | 天天操夜操 | 六月丁香激情综合色啪小说 | 日韩精品在线免费观看 | 狠狠干夜夜操天天爽 | 日韩精品观看 | 国产中文字幕视频在线观看 | 国产黄 | 久久精品成人欧美大片古装 | 欧美黄色软件 | 在线观看免费版高清版 | 在线视频久 | 99精品国产视频 | a午夜电影 | 久久99精品久久久久婷婷 | 国产一区在线视频播放 | 日韩乱码中文字幕 | 国产日韩精品在线观看 | 日韩视频中文 | 国产精品视频久久 | 中文在线中文a | 国产成年免费视频 | 久久免费视频精品 | 国产免费观看视频 | 深爱激情五月综合 | 97国产在线播放 | 国产亚洲成人精品 | 人人操日日干 | 欧美日韩后 | 1区2区视频 | 久久99深爱久久99精品 | 91网站在线视频 | 久久久久女人精品毛片九一 | 欧美人牲 | 久久综合欧美 | 国产精品2020 | 国内精品亚洲 | 中文字幕在线观看网址 | 五月天激情婷婷 | av最新资源 | 免费成人在线观看 | 精品电影一区二区 | 欧美 日韩 性 | 国产一区二区三区四区在线 | 91九色在线 | 亚洲免费av片 | 狠狠色丁香九九婷婷综合五月 | 亚洲视屏| 国产精品免费观看国产网曝瓜 | 精品999久久久| 免费日韩电影 | 手机av电影在线观看 | 午夜精品一区二区三区视频免费看 | 9999国产精品 | 国产成人三级三级三级97 | 国产 欧美 在线 | 13日本xxxxxⅹxxx20 | 国产成人一区二区三区电影 | 99热精品久久 | 91激情视频在线 | 日韩电影在线一区 | 手机av电影在线 | 91久久人澡人人添人人爽欧美 | 欧美日韩精品免费观看视频 | 亚洲色五月 | 黄色一二级片 | 69av久久| 亚洲一区二区三区毛片 | 日本中出在线观看 | 国产高清在线观看av | 国产一区二区日本 | 国产精品免费久久久久 | 伊人天天狠天天添日日拍 | 成人黄色电影在线播放 | www成人av | 91久久久国产精品 | avav99| 中文字幕a∨在线乱码免费看 | 中文字幕亚洲欧美日韩 | 成人黄色毛片视频 | 国产精品久久久影视 | 波多野结依在线观看 | 99久久99久国产黄毛片 | 99久久久国产精品免费观看 | 在线色网站 | 成人三级网址 | 91 在线视频播放 | 国产麻豆精品95视频 | 人成在线免费视频 | 一级黄网 | 欧美激情视频一区二区三区免费 | 在线播放精品一区二区三区 | 中文字幕有码在线播放 | 国产精品久久艹 | 久久公开视频 | 一区二区视频在线看 | 欧美精品免费一区二区 | 欧美极品xxx | 色婷av| 亚洲精品国偷自产在线91正片 | 97精品国产97久久久久久粉红 | 久久久久国产一区二区三区 | 夜夜爽夜夜操 | 永久免费的av电影 | 欧美日韩免费观看一区=区三区 | 中文字幕日韩精品有码视频 | 天天操狠狠操网站 | 亚洲开心激情 | 四虎在线免费观看 | 2020天天干夜夜爽 | 国产福利中文字幕 | 国产精品mv在线观看 | 国内精品久久久久 | 天天干,天天射,天天操,天天摸 | 四虎5151久久欧美毛片 | 国产一区二区久久 | avcom在线 | 黄色国产成人 | 国产在线第三页 | 日韩电影中文,亚洲精品乱码 | 欧洲成人av | 亚洲精品一区二区三区四区高清 | 成人黄色大片在线免费观看 | 日本巨乳在线 | av在线看片 | 日日操操 | 精品久久久成人 | 亚洲综合丁香 | 天天干天天操天天 | 一级一片免费观看 | 青青河边草免费视频 | 911亚洲精品第一 | 久章草在线 | 九九热视频在线播放 | 亚洲资源网 | 91精品国产综合久久婷婷香蕉 | 日韩在线视频观看免费 | 免费观看第二部31集 | www视频在线免费观看 | 五月天激情综合 | 狠狠色婷婷丁香六月 | 欧美成人影音 | 日韩视频一区二区在线 | 国产视频精品免费播放 | 丁香五月缴情综合网 | 中国一级片视频 | 日韩成人免费在线观看 | 日韩在线观看第一页 | 在线视频精品播放 | 亚洲码国产日韩欧美高潮在线播放 | 天天插天天干天天操 | 国产一区二区成人 | 久久久精品久久日韩一区综合 | 黄网站免费大全入口 | 五月天国产精品 | 91在线播放视频 | 天天操狠狠操夜夜操 | 久久观看| www.av中文字幕.com | 国产色久 | 久久艹综合 | 久久久99精品免费观看 | 久久久久久久久久久网 | 片黄色毛片黄色毛片 | 日本丶国产丶欧美色综合 | 欧美日韩在线观看一区二区三区 | 日本天天操 | 国产精品高清av | 中国精品少妇 | 美女搞黄国产视频网站 | 在线观看成人福利 | 亚洲免费在线观看视频 | 国产精品第三页 | 久草在线国产 | 日韩一区视频在线 | 99这里只有久久精品视频 | 国产精品都在这里 | 91精品综合在线观看 | 九九视频精品在线 | 色婷婷久久一区二区 | 久久精品国产精品亚洲 | 久久综合色一综合色88 | 玖玖玖国产精品 | 九九免费在线观看 | 免费美女久久99 | 午夜精品一区二区三区四区 | 久产久精国产品 | 亚洲欧美日韩国产一区二区三区 | 国产精品免费一区二区三区在线观看 | 欧美日韩一区二区在线 | 久久97精品 | 九九综合久久 | 亚洲成色| 午夜少妇av | 国产精品久久久久久一二三四五 | 国产又粗又硬又爽视频 | 色www精品视频在线观看 | 久久国产三级 | 国产福利一区二区在线 | 国产在线精 | 日韩一级黄色大片 | 精品九九九 | 亚洲成a人片在线www | 成人av av在线 | 天天综合网入口 | 一区二区三区高清在线观看 | 久久69精品久久久久久久电影好 | 国产 亚洲 欧美 在线 | 国产黄a三级三级三级三级三级 | 日日成人网| 久久9精品| 热re99久久精品国产99热 | 五月婷婷视频在线 | 久久精品视频国产 | 成人国产精品免费 | 91麻豆精品国产91久久久久久 | 国产一区二区在线播放视频 | 91影视成人 | 欧美一区二区在线免费看 | a黄色片在线观看 | 国产手机在线观看 | 欧美黄色高清 | 黄色av成人在线观看 | 日韩中文字幕电影 | 九月婷婷综合网 | 久久色中文字幕 | 国产精品一区二区果冻传媒 | 福利一区二区 | 激情欧美丁香 | 中文字幕永久 | 亚洲欧洲精品一区二区 | 久久久久久久亚洲精品 | 欧美 日韩 成人 | 黄色免费网| 成人国产一区 | 日日夜夜国产 | 国产91成人| 97国产电影 | 日韩日韩日韩日韩 | 中文字幕亚洲欧美日韩2019 | 伊人网综合在线观看 | 婷婷丁香色 | 久久激情综合 | 在线国产精品视频 | 久久国产精品一二三区 | 国产亚洲精品久久网站 | 国产亚洲精品免费 | 免费久久99精品国产婷婷六月 | 久色 网| 欧美性大战 | 国产1级毛片 | 国产精品一区免费在线观看 | 久久精品亚洲综合专区 | 国产亚州av | 国产成人免费av电影 | 色婷婷综合久久久久中文字幕1 | 国产黄色看片 | 国产伦精品一区二区三区四区视频 | 午夜精品一区二区三区在线观看 | 视频国产精品 | 国产精品色视频 | 综合婷婷| 成人久久精品 | 免费在线观看a v | 欧美成人在线免费 | 97色婷婷 | 亚洲精品成人免费 | 日韩欧美在线国产 | 国产午夜三级一区二区三桃花影视 | 天天操天天操一操 | 国产精品3 | 国产精品99精品久久免费 | 天堂中文在线视频 | 欧美性久久久久久 | 精品国产一区二区三区久久久蜜臀 | 在线观看国产成人av片 | 蜜桃视频日韩 | 成人福利在线 | 99精品在线免费观看 | 日韩欧美高清 | 久久综合精品一区 | 丁香婷婷激情啪啪 | 在线观看第一页 | 日韩久久精品一区 | 欧美成人一二区 | 色综合综合 | 日韩国产精品一区 | 欧美日韩aaaa | 亚洲国产精品999 | 在线国产激情视频 | 成人午夜精品久久久久久久3d | 在线观看日韩精品 | 91最新视频在线观看 | 久久久国产精品免费 | 很黄很污的视频网站 | 国产中文字幕网 | 手机在线看永久av片免费 | 热久久在线视频 | 97人人人| www久久| 2022久久国产露脸精品国产 | 在线欧美a | 欧美日韩在线电影 | 久久久久久久久久久高潮一区二区 | 欧美最猛性xxxx | 日韩视频1区 | 国产不卡在线观看视频 | www.91av在线| 99免费在线播放99久久免费 | 亚洲精品一区二区三区新线路 | 操操操影院| 成 人 免费 黄 色 视频 | 丁香五月亚洲综合在线 | 久草在线久草在线2 | 又色又爽又激情的59视频 | 欧美a√大片 | 波多野结衣一区 | 91视频麻豆 | 成人黄色在线视频 | 精品xxx| 九九热在线视频 | 亚洲三级影院 | 九九视频在线观看视频6 | 免费精品在线观看 | 久久久久久久久久久影视 | 免费观看一级 | 99国产一区二区三精品乱码 | 日本中文一区二区 | 成人一级电影在线观看 | 日本精品va在线观看 | 欧美日韩网站 | 五月激情姐姐 | 黄色片网站大全 | 亚洲一片黄| av永久网址| 国产精品2019| 色欧美88888久久久久久影院 | 91探花国产综合在线精品 | 国产黄色成人 | 91最新视频在线观看 | 国产精品毛片一区二区 | 日韩com | www中文在线 | 国产字幕在线看 | 国产精品大片在线观看 | 国产一区二区在线观看免费 | 亚洲精品乱码久久久久v最新版 | 久久久久久久久亚洲精品 | 久久国产精品99国产 | 久久婷婷色 | 五月婷香蕉久色在线看 | 久久久九色精品国产一区二区三区 | 日韩电影中文字幕在线 | av在线免费网 | 美女网站黄在线观看 | 黄色成人av | 国产黄色片一级 | 色综合天天综合在线视频 | 免费日韩av电影 | 国产一区黄色 | 免费三级黄色片 | 中文字幕乱码日本亚洲一区二区 | 欧美一级日韩免费不卡 | 黄色av一级片 | 亚洲国产精品久久 | 激情网综合 | 免费日韩 精品中文字幕视频在线 | 这里只有精品视频在线观看 | 日韩一级片网址 | 97成人资源 | 国产精品综合久久久久久 | 精品国产乱码久久久久久久 | 国内精品亚洲 | 欧美在线一级片 | 91c网站色版视频 | 天天干天天拍天天操天天拍 | 久久久久久久久国产 | 韩日色视频 | 99热99re6国产在线播放 | 国产专区第一页 | 色噜噜在线观看视频 | 综合久久婷婷 | 九九热免费在线观看 | 亚洲国产欧洲综合997久久, | 特级大胆西西4444www | 91av99| 在线观看小视频 | 久久国产精品区 | 人人爽人人舔 | 国产精品 久久 | 91网站在线视频 | 亚洲国产伊人 | 欧美性色综合网站 | 色片网站在线观看 | 欧美激情综合五月色丁香 | 在线日韩中文字幕 | 久久综合久久综合久久综合 | 免费在线观看91 | 精品国自产在线观看 | 97视频免费播放 | 国产精品99久久久久久宅男 | 97视频在线观看免费 | 欧美性色xo影院 | 亚洲另类久久 | 日韩在线视频不卡 | 91综合久久一区二区 | 免费观看成人网 | 一级a毛片高清视频 | 亚洲免费观看视频 | 日韩一区二区三区免费视频 | 亚洲成人精品在线 | 亚洲精品2区 | 欧美 高跟鞋交 xxxxhd | 亚洲美女在线一区 | 又紧又大又爽精品一区二区 | 欧洲一区二区在线观看 | 最近中文字幕免费av | 国产精品a成v人在线播放 | 在线观看黄色av | 五月天丁香视频 | 91禁看片 | 国产成人精品999在线观看 | 中文字幕色在线视频 | 日韩免费视频网站 | 久久久免费观看完整版 | 狠狠狠色丁香婷婷综合久久五月 | www.夜夜操.com | 欧美另类网站 | 探花视频在线观看+在线播放 | 欧美精品三级在线观看 | 久久成人视屏 | 午夜精品久久久久久久久久久久久久 | 亚洲91中文字幕无线码三区 | 国产在线97 | 亚洲国产成人精品电影在线观看 | 午夜在线看片 | 久久久久久久久影院 | 久久精品毛片 | 五月婷丁香 | 2022国产精品视频 | 国产中文字幕在线免费观看 | 在线免费日韩 | 日韩在线免费播放 | 精品在线视频播放 | 亚洲自拍自偷 | 91视频免费看片 | 五月婷婷丁香网 | 日韩黄色在线观看 | 最新av中文字幕 | 日日夜夜天天干 | 免费三级大片 | 亚洲三级黄色 | 亚洲精品美女久久久久 | 欧美日韩视频在线一区 | 婷婷五月情 | 午夜精品电影一区二区在线 | 丝袜美腿亚洲综合 | 四虎永久免费网站 | 国产专区精品 | 日韩在线观看你懂得 | 91视频免费网址 | 9ⅰ精品久久久久久久久中文字幕 | 国产精品18久久久久久久久 | www.狠狠操.com | av免费福利| 天天综合网天天综合色 | 亚洲激情视频 | 亚洲1级片 | 在线播放 日韩专区 | 日韩精品久久久久 | 久久精品导航 | 免费高清无人区完整版 | 欧美日韩有码 | 久久久网 | 国产小视频精品 | 在线免费av播放 | 最新国产精品久久精品 | 在线观看av小说 | 国产精品综合久久久久久 | 一级黄色电影网站 | 亚洲va欧美va | 国产精品久久久久久麻豆一区 | 不卡av电影在线 | 亚洲精品99久久久久中文字幕 | 99爱在线| 亚洲精品国产精品国产 | 天天射天天舔天天干 | 日韩精品免费在线观看视频 | 国产一区二区三区免费在线 | 91精品国产九九九久久久亚洲 | 中文区中文字幕免费看 | 国产在线播放一区二区 | 999久久久免费视频 午夜国产在线观看 | 9在线观看免费 | 狠狠色丁香婷婷综合视频 | www.久草视频 | 亚洲国产播放 | 日韩久久精品一区二区三区下载 | 欧美激情精品久久久久 | 中文字幕资源在线观看 | 久草在线资源网 | 日韩电影一区二区三区在线观看 | 808电影免费观看三年 | 亚洲精品色视频 | www黄色大片 | 天天操天天干天天操天天干 | 97成人在线观看视频 | 欧美高清视频不卡网 | 久久精品福利视频 | 玖玖视频在线 | 五月婷婷激情六月 | 免费在线成人 | 国产午夜剧场 | 亚洲一区二区三区精品在线观看 | 丁香综合av | 国产视频精品网 | 亚洲a网 | 国产日本三级 | 在线观看日韩精品 | 国产一级免费视频 | 夜又临在线观看 | 99精品视频免费在线观看 | 久久久久一区二区三区 | 麻豆精品91| 亚洲永久免费av | 狠狠干婷婷 | 欧美在线18 | 国产高清视频在线 | 色网站在线免费观看 | 日本天天操 | 免费在线一区二区 | 日本精品视频一区二区 | 99久久精品国产一区二区三区 | 狠狠狠色丁香综合久久天下网 | 88av视频 | 丁香色婷婷 | 日韩特黄一级欧美毛片特黄 | 国产亚州av | 国产在线播放观看 | 日韩av一区二区在线 | 国产色婷婷 | 国产一区二区免费看 | av黄色在线观看 |