日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

jieba分词工具的使用-python代码

發布時間:2023/12/10 python 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 jieba分词工具的使用-python代码 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

jieba

“結巴”中文分詞:做最好的 Python 中文分詞組件

"Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module.

  • Scroll down for English documentation.

特點

  • 支持三種分詞模式:

    • 精確模式,試圖將句子最精確地切開,適合文本分析;
    • 全模式,把句子中所有的可以成詞的詞語都掃描出來, 速度非常快,但是不能解決歧義;
    • 搜索引擎模式,在精確模式的基礎上,對長詞再次切分,提高召回率,適合用于搜索引擎分詞。
  • 支持繁體分詞

  • 支持自定義詞典
  • MIT 授權協議

在線演示

http://jiebademo.ap01.aws.af.cm/

(Powered by Appfog)

網站代碼:https://github.com/fxsjy/jiebademo

安裝說明

代碼對 Python 2/3 均兼容

  • 全自動安裝:easy_install jieba?或者?pip install jieba?/?pip3 install jieba
  • 半自動安裝:先下載?http://pypi.python.org/pypi/jieba/?,解壓后運行?python setup.py install
  • 手動安裝:將 jieba 目錄放置于當前目錄或者 site-packages 目錄
  • 通過?import jieba?來引用

算法

  • 基于前綴詞典實現高效的詞圖掃描,生成句子中漢字所有可能成詞情況所構成的有向無環圖 (DAG)
  • 采用了動態規劃查找最大概率路徑, 找出基于詞頻的最大切分組合
  • 對于未登錄詞,采用了基于漢字成詞能力的 HMM 模型,使用了 Viterbi 算法

主要功能

1. 分詞

  • jieba.cut?方法接受三個輸入參數: 需要分詞的字符串;cut_all 參數用來控制是否采用全模式;HMM 參數用來控制是否使用 HMM 模型
  • jieba.cut_for_search?方法接受兩個參數:需要分詞的字符串;是否使用 HMM 模型。該方法適合用于搜索引擎構建倒排索引的分詞,粒度比較細
  • 待分詞的字符串可以是 unicode 或 UTF-8 字符串、GBK 字符串。注意:不建議直接輸入 GBK 字符串,可能無法預料地錯誤解碼成 UTF-8
  • jieba.cut?以及?jieba.cut_for_search?返回的結構都是一個可迭代的 generator,可以使用 for 循環來獲得分詞后得到的每一個詞語(unicode),或者用
  • jieba.lcut?以及?jieba.lcut_for_search?直接返回 list
  • jieba.Tokenizer(dictionary=DEFAULT_DICT)?新建自定義分詞器,可用于同時使用不同詞典。jieba.dt?為默認分詞器,所有全局分詞相關函數都是該分詞器的映射。

代碼示例

# encoding=utf-8 import jiebaseg_list = jieba.cut("我來到北京清華大學", cut_all=True) print("Full Mode: " + "/ ".join(seg_list)) # 全模式seg_list = jieba.cut("我來到北京清華大學", cut_all=False) print("Default Mode: " + "/ ".join(seg_list)) # 精確模式seg_list = jieba.cut("他來到了網易杭研大廈") # 默認是精確模式 print(", ".join(seg_list))seg_list = jieba.cut_for_search("小明碩士畢業于中國科學院計算所,后在日本京都大學深造") # 搜索引擎模式 print(", ".join(seg_list))

輸出:

【全模式】: 我/ 來到/ 北京/ 清華/ 清華大學/ 華大/ 大學【精確模式】: 我/ 來到/ 北京/ 清華大學【新詞識別】:他, 來到, 了, 網易, 杭研, 大廈 (此處,“杭研”并沒有在詞典中,但是也被Viterbi算法識別出來了)【搜索引擎模式】: 小明, 碩士, 畢業, 于, 中國, 科學, 學院, 科學院, 中國科學院, 計算, 計算所, 后, 在, 日本, 京都, 大學, 日本京都大學, 深造

2. 添加自定義詞典

載入詞典

  • 開發者可以指定自己自定義的詞典,以便包含 jieba 詞庫里沒有的詞。雖然 jieba 有新詞識別能力,但是自行添加新詞可以保證更高的正確率
  • 用法: jieba.load_userdict(file_name) # file_name 為文件類對象或自定義詞典的路徑
  • 詞典格式和?dict.txt?一樣,一個詞占一行;每一行分三部分:詞語、詞頻(可省略)、詞性(可省略),用空格隔開,順序不可顛倒。file_name?若為路徑或二進制方式打開的文件,則文件必須為 UTF-8 編碼。
  • 詞頻省略時使用自動計算的能保證分出該詞的詞頻。

例如:

創新辦 3 i 云計算 5 凱特琳 nz 臺中
  • 更改分詞器(默認為?jieba.dt)的?tmp_dir?和?cache_file?屬性,可分別指定緩存文件所在的文件夾及其文件名,用于受限的文件系統。

  • 范例:

    • 自定義詞典:https://github.com/fxsjy/jieba/blob/master/test/userdict.txt

    • 用法示例:https://github.com/fxsjy/jieba/blob/master/test/test_userdict.py

      • 之前: 李小福 / 是 / 創新 / 辦 / 主任 / 也 / 是 / 云 / 計算 / 方面 / 的 / 專家 /

      • 加載自定義詞庫后: 李小福 / 是 / 創新辦 / 主任 / 也 / 是 / 云計算 / 方面 / 的 / 專家 /

調整詞典

  • 使用?add_word(word, freq=None, tag=None)?和?del_word(word)?可在程序中動態修改詞典。
  • 使用?suggest_freq(segment, tune=True)?可調節單個詞語的詞頻,使其能(或不能)被分出來。

  • 注意:自動計算的詞頻在使用 HMM 新詞發現功能時可能無效。

代碼示例:

>>> print('/'.join(jieba.cut('如果放到post中將出錯。', HMM=False))) 如果/放到/post/中將/出錯/。 >>> jieba.suggest_freq(('中', '將'), True) 494 >>> print('/'.join(jieba.cut('如果放到post中將出錯。', HMM=False))) 如果/放到/post/中/將/出錯/。 >>> print('/'.join(jieba.cut('「臺中」正確應該不會被切開', HMM=False))) 「/臺/中/」/正確/應該/不會/被/切開 >>> jieba.suggest_freq('臺中', True) 69 >>> print('/'.join(jieba.cut('「臺中」正確應該不會被切開', HMM=False))) 「/臺中/」/正確/應該/不會/被/切開
  • "通過用戶自定義詞典來增強歧義糾錯能力" ---?https://github.com/fxsjy/jieba/issues/14

3. 關鍵詞提取

基于 TF-IDF 算法的關鍵詞抽取

import jieba.analyse

  • jieba.analyse.extract_tags(sentence, topK=20, withWeight=False, allowPOS=())
    • sentence 為待提取的文本
    • topK 為返回幾個 TF/IDF 權重最大的關鍵詞,默認值為 20
    • withWeight 為是否一并返回關鍵詞權重值,默認值為 False
    • allowPOS 僅包括指定詞性的詞,默認值為空,即不篩選
  • jieba.analyse.TFIDF(idf_path=None) 新建 TFIDF 實例,idf_path 為 IDF 頻率文件

代碼示例 (關鍵詞提取)

https://github.com/fxsjy/jieba/blob/master/test/extract_tags.py

關鍵詞提取所使用逆向文件頻率(IDF)文本語料庫可以切換成自定義語料庫的路徑

  • 用法: jieba.analyse.set_idf_path(file_name) # file_name為自定義語料庫的路徑
  • 自定義語料庫示例:https://github.com/fxsjy/jieba/blob/master/extra_dict/idf.txt.big
  • 用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_idfpath.py

關鍵詞提取所使用停止詞(Stop Words)文本語料庫可以切換成自定義語料庫的路徑

  • 用法: jieba.analyse.set_stop_words(file_name) # file_name為自定義語料庫的路徑
  • 自定義語料庫示例:https://github.com/fxsjy/jieba/blob/master/extra_dict/stop_words.txt
  • 用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_stop_words.py

關鍵詞一并返回關鍵詞權重值示例

  • 用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_with_weight.py

基于 TextRank 算法的關鍵詞抽取

  • jieba.analyse.textrank(sentence, topK=20, withWeight=False, allowPOS=('ns', 'n', 'vn', 'v')) 直接使用,接口相同,注意默認過濾詞性。
  • jieba.analyse.TextRank() 新建自定義 TextRank 實例

算法論文:?TextRank: Bringing Order into Texts

基本思想:

  • 將待抽取關鍵詞的文本進行分詞
  • 以固定窗口大小(默認為5,通過span屬性調整),詞之間的共現關系,構建圖
  • 計算圖中節點的PageRank,注意是無向帶權圖
  • 使用示例:

    見?test/demo.py

    4. 詞性標注

    • jieba.posseg.POSTokenizer(tokenizer=None)?新建自定義分詞器,tokenizer?參數可指定內部使用的jieba.Tokenizer?分詞器。jieba.posseg.dt?為默認詞性標注分詞器。
    • 標注句子分詞后每個詞的詞性,采用和 ictclas 兼容的標記法。
    • 用法示例
    >>> import jieba.posseg as pseg >>> words = pseg.cut("我愛北京天安門") >>> for word, flag in words: ... print('%s %s' % (word, flag)) ... 我 r 愛 v 北京 ns 天安門 ns

    5. 并行分詞

    • 原理:將目標文本按行分隔后,把各行文本分配到多個 Python 進程并行分詞,然后歸并結果,從而獲得分詞速度的可觀提升
    • 基于 python 自帶的 multiprocessing 模塊,目前暫不支持 Windows
    • 用法:

      • jieba.enable_parallel(4)?# 開啟并行分詞模式,參數為并行進程數
      • jieba.disable_parallel()?# 關閉并行分詞模式
    • 例子:https://github.com/fxsjy/jieba/blob/master/test/parallel/test_file.py

    • 實驗結果:在 4 核 3.4GHz Linux 機器上,對金庸全集進行精確分詞,獲得了 1MB/s 的速度,是單進程版的 3.3 倍。

    • 注意:并行分詞僅支持默認分詞器?jieba.dt?和?jieba.posseg.dt。

    6. Tokenize:返回詞語在原文的起止位置

    • 注意,輸入參數只接受 unicode
    • 默認模式
    result = jieba.tokenize(u'永和服裝飾品有限公司') for tk in result:print("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2])) word 永和 start: 0 end:2 word 服裝 start: 2 end:4 word 飾品 start: 4 end:6 word 有限公司 start: 6 end:10
    • 搜索模式
    result = jieba.tokenize(u'永和服裝飾品有限公司', mode='search') for tk in result:print("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2])) word 永和 start: 0 end:2 word 服裝 start: 2 end:4 word 飾品 start: 4 end:6 word 有限 start: 6 end:8 word 公司 start: 8 end:10 word 有限公司 start: 6 end:10

    7. ChineseAnalyzer for Whoosh 搜索引擎

    • 引用:?from jieba.analyse import ChineseAnalyzer
    • 用法示例:https://github.com/fxsjy/jieba/blob/master/test/test_whoosh.py

    8. 命令行分詞

    使用示例:python -m jieba news.txt > cut_result.txt

    命令行選項(翻譯):

    使用: python -m jieba [options] filename結巴命令行界面。固定參數:filename 輸入文件可選參數:-h, --help 顯示此幫助信息并退出-d [DELIM], --delimiter [DELIM]使用 DELIM 分隔詞語,而不是用默認的' / '。若不指定 DELIM,則使用一個空格分隔。-p [DELIM], --pos [DELIM]啟用詞性標注;如果指定 DELIM,詞語和詞性之間用它分隔,否則用 _ 分隔-D DICT, --dict DICT 使用 DICT 代替默認詞典-u USER_DICT, --user-dict USER_DICT使用 USER_DICT 作為附加詞典,與默認詞典或自定義詞典配合使用-a, --cut-all 全模式分詞(不支持詞性標注)-n, --no-hmm 不使用隱含馬爾可夫模型-q, --quiet 不輸出載入信息到 STDERR-V, --version 顯示版本信息并退出如果沒有指定文件名,則使用標準輸入。

    --help?選項輸出:

    $> python -m jieba --help Jieba command line interface.positional arguments:filename input fileoptional arguments:-h, --help show this help message and exit-d [DELIM], --delimiter [DELIM]use DELIM instead of ' / ' for word delimiter; or aspace if it is used without DELIM-p [DELIM], --pos [DELIM]enable POS tagging; if DELIM is specified, use DELIMinstead of '_' for POS delimiter-D DICT, --dict DICT use DICT as dictionary-u USER_DICT, --user-dict USER_DICTuse USER_DICT together with the default dictionary orDICT (if specified)-a, --cut-all full pattern cutting (ignored with POS tagging)-n, --no-hmm don't use the Hidden Markov Model-q, --quiet don't print loading messages to stderr-V, --version show program's version number and exitIf no filename specified, use STDIN instead.

    延遲加載機制

    jieba 采用延遲加載,import jieba?和?jieba.Tokenizer()?不會立即觸發詞典的加載,一旦有必要才開始加載詞典構建前綴字典。如果你想手工初始 jieba,也可以手動初始化。

    import jieba jieba.initialize() # 手動初始化(可選)

    在 0.28 之前的版本是不能指定主詞典的路徑的,有了延遲加載機制后,你可以改變主詞典的路徑:

    jieba.set_dictionary('data/dict.txt.big')

    例子:?https://github.com/fxsjy/jieba/blob/master/test/test_change_dictpath.py

    其他詞典

  • 占用內存較小的詞典文件?https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.small

  • 支持繁體分詞更好的詞典文件?https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.big

  • 下載你所需要的詞典,然后覆蓋 jieba/dict.txt 即可;或者用?jieba.set_dictionary('data/dict.txt.big')

    其他語言實現

    結巴分詞 Java 版本

    作者:piaolingxue 地址:https://github.com/huaban/jieba-analysis

    結巴分詞 C++ 版本

    作者:yanyiwu 地址:https://github.com/yanyiwu/cppjieba

    結巴分詞 Node.js 版本

    作者:yanyiwu 地址:https://github.com/yanyiwu/nodejieba

    結巴分詞 Erlang 版本

    作者:falood 地址:https://github.com/falood/exjieba

    結巴分詞 R 版本

    作者:qinwf 地址:https://github.com/qinwf/jiebaR

    結巴分詞 iOS 版本

    作者:yanyiwu 地址:https://github.com/yanyiwu/iosjieba

    結巴分詞 PHP 版本

    作者:fukuball 地址:https://github.com/fukuball/jieba-php

    結巴分詞 .NET(C#) 版本

    作者:anderscui 地址:https://github.com/anderscui/jieba.NET/

    結巴分詞 Go 版本

    • 作者: wangbin 地址:?https://github.com/wangbin/jiebago
    • 作者: yanyiwu 地址:?https://github.com/yanyiwu/gojieba

    系統集成

  • Solr:?https://github.com/sing1ee/jieba-solr
  • 分詞速度

    • 1.5 MB / Second in Full Mode
    • 400 KB / Second in Default Mode
    • 測試環境: Intel(R) Core(TM) i7-2600 CPU @ 3.4GHz;《圍城》.txt

    常見問題

    1. 模型的數據是如何生成的?

    詳見:?https://github.com/fxsjy/jieba/issues/7

    2. “臺中”總是被切成“臺 中”?(以及類似情況)

    P(臺中) < P(臺)×P(中),“臺中”詞頻不夠導致其成詞概率較低

    解決方法:強制調高詞頻

    jieba.add_word('臺中')?或者?jieba.suggest_freq('臺中', True)

    3. “今天天氣 不錯”應該被切成“今天 天氣 不錯”?(以及類似情況)

    解決方法:強制調低詞頻

    jieba.suggest_freq(('今天', '天氣'), True)

    或者直接刪除該詞?jieba.del_word('今天天氣')

    4. 切出了詞典中沒有的詞語,效果不理想?

    解決方法:關閉新詞發現

    jieba.cut('豐田太省了', HMM=False)?jieba.cut('我們中出了一個叛徒', HMM=False)

    更多問題請點擊:https://github.com/fxsjy/jieba/issues?sort=updated&state=closed

    修訂歷史

    https://github.com/fxsjy/jieba/blob/master/Changelog


    jieba

    "Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module.

    Features

    • Support three types of segmentation mode:

  • Accurate Mode attempts to cut the sentence into the most accurate segmentations, which is suitable for text analysis.
  • Full Mode gets all the possible words from the sentence. Fast but not accurate.
  • Search Engine Mode, based on the Accurate Mode, attempts to cut long words into several short words, which can raise the recall rate. Suitable for search engines.

    • Supports Traditional Chinese
    • Supports customized dictionaries
    • MIT License

    Online demo

    http://jiebademo.ap01.aws.af.cm/

    (Powered by Appfog)

    Usage

    • Fully automatic installation:?easy_install jieba?or?pip install jieba
    • Semi-automatic installation: Download?http://pypi.python.org/pypi/jieba/?, run?python setup.py install?after extracting.
    • Manual installation: place the?jieba?directory in the current directory or python?site-packages?directory.
    • import jieba.

    Algorithm

    • Based on a prefix dictionary structure to achieve efficient word graph scanning. Build a directed acyclic graph (DAG) for all possible word combinations.
    • Use dynamic programming to find the most probable combination based on the word frequency.
    • For unknown words, a HMM-based model is used with the Viterbi algorithm.

    Main Functions

    1. Cut

    • The?jieba.cut?function accepts three input parameters: the first parameter is the string to be cut; the second parameter iscut_all, controlling the cut mode; the third parameter is to control whether to use the Hidden Markov Model.
    • jieba.cut_for_search?accepts two parameter: the string to be cut; whether to use the Hidden Markov Model. This will cut the sentence into short words suitable for search engines.
    • The input string can be an unicode/str object, or a str/bytes object which is encoded in UTF-8 or GBK. Note that using GBK encoding is not recommended because it may be unexpectly decoded as UTF-8.
    • jieba.cut?and?jieba.cut_for_search?returns an generator, from which you can use a?for?loop to get the segmentation result (in unicode).
    • jieba.lcut?and?jieba.lcut_for_search?returns a list.
    • jieba.Tokenizer(dictionary=DEFAULT_DICT)?creates a new customized Tokenizer, which enables you to use different dictionaries at the same time.?jieba.dt?is the default Tokenizer, to which almost all global functions are mapped.

    Code example: segmentation

    #encoding=utf-8 import jiebaseg_list = jieba.cut("我來到北京清華大學", cut_all=True) print("Full Mode: " + "/ ".join(seg_list)) # 全模式seg_list = jieba.cut("我來到北京清華大學", cut_all=False) print("Default Mode: " + "/ ".join(seg_list)) # 默認模式seg_list = jieba.cut("他來到了網易杭研大廈") print(", ".join(seg_list))seg_list = jieba.cut_for_search("小明碩士畢業于中國科學院計算所,后在日本京都大學深造") # 搜索引擎模式 print(", ".join(seg_list))

    Output:

    [Full Mode]: 我/ 來到/ 北京/ 清華/ 清華大學/ 華大/ 大學[Accurate Mode]: 我/ 來到/ 北京/ 清華大學[Unknown Words Recognize] 他, 來到, 了, 網易, 杭研, 大廈 (In this case, "杭研" is not in the dictionary, but is identified by the Viterbi algorithm)[Search Engine Mode]: 小明, 碩士, 畢業, 于, 中國, 科學, 學院, 科學院, 中國科學院, 計算, 計算所, 后, 在, 日本, 京都, 大學, 日本京都大學, 深造

    2. Add a custom dictionary

     Load dictionary

    • Developers can specify their own custom dictionary to be included in the jieba default dictionary. Jieba is able to identify new words, but you can add your own new words can ensure a higher accuracy.
    • Usage:?jieba.load_userdict(file_name)?# file_name is a file-like object or the path of the custom dictionary
    • The dictionary format is the same as that of?dict.txt: one word per line; each line is divided into three parts separated by a space: word, word frequency, POS tag. If?file_name?is a path or a file opened in binary mode, the dictionary must be UTF-8 encoded.
    • The word frequency and POS tag can be omitted respectively. The word frequency will be filled with a suitable value if omitted.

    For example:

    創新辦 3 i 云計算 5 凱特琳 nz 臺中
    • Change a Tokenizer's?tmp_dir?and?cache_file?to specify the path of the cache file, for using on a restricted file system.

    • Example:

      云計算 5 李小福 2 創新辦 3[Before]: 李小福 / 是 / 創新 / 辦 / 主任 / 也 / 是 / 云 / 計算 / 方面 / 的 / 專家 /[After]: 李小福 / 是 / 創新辦 / 主任 / 也 / 是 / 云計算 / 方面 / 的 / 專家 /

    Modify dictionary

    • Use?add_word(word, freq=None, tag=None)?and?del_word(word)?to modify the dictionary dynamically in programs.
    • Use?suggest_freq(segment, tune=True)?to adjust the frequency of a single word so that it can (or cannot) be segmented.

    • Note that HMM may affect the final result.

    Example:

    >>> print('/'.join(jieba.cut('如果放到post中將出錯。', HMM=False))) 如果/放到/post/中將/出錯/。 >>> jieba.suggest_freq(('中', '將'), True) 494 >>> print('/'.join(jieba.cut('如果放到post中將出錯。', HMM=False))) 如果/放到/post/中/將/出錯/。 >>> print('/'.join(jieba.cut('「臺中」正確應該不會被切開', HMM=False))) 「/臺/中/」/正確/應該/不會/被/切開 >>> jieba.suggest_freq('臺中', True) 69 >>> print('/'.join(jieba.cut('「臺中」正確應該不會被切開', HMM=False))) 「/臺中/」/正確/應該/不會/被/切開

    3. Keyword Extraction

    import jieba.analyse

    • jieba.analyse.extract_tags(sentence, topK=20, withWeight=False, allowPOS=())
      • sentence: the text to be extracted
      • topK: return how many keywords with the highest TF/IDF weights. The default value is 20
      • withWeight: whether return TF/IDF weights with the keywords. The default value is False
      • allowPOS: filter words with which POSs are included. Empty for no filtering.
    • jieba.analyse.TFIDF(idf_path=None)?creates a new TFIDF instance,?idf_path?specifies IDF file path.

    Example (keyword extraction)

    https://github.com/fxsjy/jieba/blob/master/test/extract_tags.py

    Developers can specify their own custom IDF corpus in jieba keyword extraction

    • Usage:?jieba.analyse.set_idf_path(file_name) # file_name is the path for the custom corpus
    • Custom Corpus Sample:https://github.com/fxsjy/jieba/blob/master/extra_dict/idf.txt.big
    • Sample Code:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_idfpath.py

    Developers can specify their own custom stop words corpus in jieba keyword extraction

    • Usage:?jieba.analyse.set_stop_words(file_name) # file_name is the path for the custom corpus
    • Custom Corpus Sample:https://github.com/fxsjy/jieba/blob/master/extra_dict/stop_words.txt
    • Sample Code:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_stop_words.py

    There's also a?TextRank?implementation available.

    Use:?jieba.analyse.textrank(sentence, topK=20, withWeight=False, allowPOS=('ns', 'n', 'vn', 'v'))

    Note that it filters POS by default.

    jieba.analyse.TextRank()?creates a new TextRank instance.

    4. Part of Speech Tagging

    • jieba.posseg.POSTokenizer(tokenizer=None)?creates a new customized Tokenizer.?tokenizer?specifies the jieba.Tokenizer to internally use.?jieba.posseg.dt?is the default POSTokenizer.
    • Tags the POS of each word after segmentation, using labels compatible with ictclas.
    • Example:
    >>> import jieba.posseg as pseg >>> words = pseg.cut("我愛北京天安門") >>> for w in words: ... print('%s %s' % (w.word, w.flag)) ... 我 r 愛 v 北京 ns 天安門 ns

    5. Parallel Processing

    • Principle: Split target text by line, assign the lines into multiple Python processes, and then merge the results, which is considerably faster.
    • Based on the multiprocessing module of Python.
    • Usage:

      • jieba.enable_parallel(4)?# Enable parallel processing. The parameter is the number of processes.
      • jieba.disable_parallel()?# Disable parallel processing.
    • Example:?https://github.com/fxsjy/jieba/blob/master/test/parallel/test_file.py

    • Result: On a four-core 3.4GHz Linux machine, do accurate word segmentation on Complete Works of Jin Yong, and the speed reaches 1MB/s, which is 3.3 times faster than the single-process version.

    • Note?that parallel processing supports only default tokenizers,?jieba.dt?and?jieba.posseg.dt.

    6. Tokenize: return words with position

    • The input must be unicode
    • Default mode
    result = jieba.tokenize(u'永和服裝飾品有限公司') for tk in result:print("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2])) word 永和 start: 0 end:2 word 服裝 start: 2 end:4 word 飾品 start: 4 end:6 word 有限公司 start: 6 end:10
    • Search mode
    result = jieba.tokenize(u'永和服裝飾品有限公司',mode='search') for tk in result:print("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2])) word 永和 start: 0 end:2 word 服裝 start: 2 end:4 word 飾品 start: 4 end:6 word 有限 start: 6 end:8 word 公司 start: 8 end:10 word 有限公司 start: 6 end:10

    7. ChineseAnalyzer for Whoosh

    • from jieba.analyse import ChineseAnalyzer
    • Example:?https://github.com/fxsjy/jieba/blob/master/test/test_whoosh.py

    8. Command Line Interface

    $> python -m jieba --help Jieba command line interface.positional arguments:filename input fileoptional arguments:-h, --help show this help message and exit-d [DELIM], --delimiter [DELIM]use DELIM instead of ' / ' for word delimiter; or aspace if it is used without DELIM-p [DELIM], --pos [DELIM]enable POS tagging; if DELIM is specified, use DELIMinstead of '_' for POS delimiter-D DICT, --dict DICT use DICT as dictionary-u USER_DICT, --user-dict USER_DICTuse USER_DICT together with the default dictionary orDICT (if specified)-a, --cut-all full pattern cutting (ignored with POS tagging)-n, --no-hmm don't use the Hidden Markov Model-q, --quiet don't print loading messages to stderr-V, --version show program's version number and exitIf no filename specified, use STDIN instead.

    Initialization

    By default, Jieba don't build the prefix dictionary unless it's necessary. This takes 1-3 seconds, after which it is not initialized again. If you want to initialize Jieba manually, you can call:

    import jieba jieba.initialize() # (optional)

    You can also specify the dictionary (not supported before version 0.28) :

    jieba.set_dictionary('data/dict.txt.big')

    Using Other Dictionaries

    It is possible to use your own dictionary with Jieba, and there are also two dictionaries ready for download:

  • A smaller dictionary for a smaller memory footprint:?https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.small

  • There is also a bigger dictionary that has better support for traditional Chinese (繁體):https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.big

  • By default, an in-between dictionary is used, called?dict.txt?and included in the distribution.

    In either case, download the file you want, and then call?jieba.set_dictionary('data/dict.txt.big')?or just replace the existing?dict.txt.

    Segmentation speed

    • 1.5 MB / Second in Full Mode
    • 400 KB / Second in Default Mode
    • Test Env: Intel(R) Core(TM) i7-2600 CPU @ 3.4GHz;《圍城》.txt

    ?

    ?

    • ?
    #-*-coding:utf-8-*- __author__ = '蘇葉' # ###jieba特性介紹 # 支持三種分詞模式: # 精確模式,試圖將句子最精確地切開,適合文本分析; # 全模式,把句子中所有的可以成詞的詞語都掃描出來, 速度非???#xff0c;但是不能解決歧義; # 搜索引擎模式,在精確模式的基礎上,對長詞再次切分,提高召回率,適合用于搜索引擎分詞。 # 支持繁體分詞。 # 支持自定義詞典。 # MIT 授權協議。# ###分詞速度 # 1.5 MB / Second in Full Mode # 400 KB / Second in Default Mode # 測試環境: Intel(R) Core(TM) i7-2600 CPU @ 3.4GHz;《圍城》.txt# #一、 第一部分# ##Part 1. 分詞 # jieba.cut的默認參數只有三個,jieba源碼如下# cut(self, sentence, cut_all=False, HMM=True)# jieba.cut的默認參數只有三個,jieba源碼如下# cut(self, sentence, cut_all=False, HMM=True) # 分別為:輸入文本 是否為全模式分詞 與是否開啟HMM進行中文分詞(隱馬爾科夫模型) # jieba.cut_for_search 方法接受兩個參數:需要分詞的字符串;是否使用 HMM 模型。該方法適合用于搜索引擎構建倒排索引的分詞,粒度比較細。 # 待分詞的字符串可以是 unicode 或 UTF-8 字符串、GBK 字符串。注意:不建議直接輸入 GBK 字符串,可能無法預料地錯誤解碼成 UTF-8。 # jieba.cut 以及 jieba.cut_for_search 返回的結構都是一個可迭代的 generator,可以使用 for 循環來獲得分詞后得到的每一個詞語(unicode),或者用 # jieba.lcut 以及 jieba.lcut_for_search 直接返回 list。 # jieba.Tokenizer(dictionary=DEFAULT_DICT) 新建自定義分詞器,可用于同時使用不同詞典。jieba.dt 為默認分詞器,所有全局分詞相關函數都是該分詞器的映射。# 1.全模式 import jieba data1=jieba.cut("我來到山東師范大學",cut_all=True) print("全模式下:"+"/".join(data1))#全模式下:我/來到/山東/山東師范大學/師范/師范大學/大學# 2.精確模式(也是默認的模式) data2=jieba.cut("我來到山東師范大學",cut_all=False)#這玩意默認也是這個,等同于 data2=jieba.cut("我來到山東師范大學") print("精確模式下:"+"/".join(data2))#精確模式下:我/來到/山東師范大學# 3.搜索引擎模式 data3=jieba.cut_for_search("我來到山東師范大學") print("搜索引擎模式下:"+"/".join(data3))#搜索引擎模式下:我/來到/山東/師范/大學/山東師范大學# ##Part 2. 添加自定義詞典# ###載入詞典 # 開發者可以指定自己自定義的詞典,以便包含 jieba 詞庫里沒有的詞。雖然 jieba 有新詞識別能力,但是自行添加新詞可以保證更高的正確率。 # 用法: jieba.load_userdict(file_name) # file_name 為自定義詞典的路徑。 # 詞典格式和dict.txt一樣,一個詞占一行;每一行分三部分,一部分為詞語,另一部分為詞頻(可省略),最后為詞性(可省略),用空格隔開。 # 詞頻可省略,使用計算出的能保證分出該詞的詞頻。 # 更改分詞器的 tmp_dir 和 cache_file 屬性,可指定緩存文件位置,用于受限的文件系統。# 舉個例子,比如創新辦等詞語,jieba可以會將其分為創新,辦兩部分,這個就體現了我們擴展詞匯的作用了 # 導入擴展詞匯之前 data4=jieba.cut("李小福是創新辦主任也是云計算方面的專家") print("導入擴展詞匯之前的分詞:"+"/".join(data4))#導入擴展詞匯之前的分詞:李小福/是/創新/辦/主任/也/是/云/計算/方面/的/專家# 導入擴展詞匯之后 jieba.load_userdict("ext_words.txt")#加載擴展詞庫,里面就兩個詞匯:創新辦、云計算 data5=jieba.cut("李小福是創新辦主任也是云計算方面的專家") print("加載擴展詞匯之后:"+"/".join(data5))#加載擴展詞匯之后:李小福/是/創新辦/主任/也/是/云計算/方面/的/專家# ###調整詞典# 使用 add_word(word, freq=None, tag=None) 和 del_word(word) 可在程序中動態修改詞典。 # 使用 suggest_freq(segment, tune=True) 可調節單個詞語的詞頻,使其能(或不能)被分出來。 # 注意:自動計算的詞頻在使用 HMM 新詞發現功能時可能無效。print("/".join(jieba.cut("如果放到post中將出錯。", HMM = False)))#如果/放到/post/中將/出錯/。#利用調節詞頻使“中”,“將”都能被分出來 jieba.suggest_freq(("中", "將"), tune = True) print("/".join(jieba.cut("如果放到post中將出錯。", HMM = False)))#如果/放到/post/中/將/出錯/。#動態修改詞典 Original = "/".join(jieba.cut("江州市長江大橋參加了長江大橋的通車儀式。", HMM = False)) print( "Original: " + Original)#Original: 江州/市/長江大橋/參加/了/長江大橋/的/通車/儀式/。 # 添加詞匯后 jieba.add_word("江大橋", freq = 20000, tag = None) print("/".join(jieba.cut("江州市長江大橋參加了長江大橋的通車儀式。")))#江州/市長/江大橋/參加/了/長江大橋/的/通車/儀式/。# ##Part 3. 詞性標注# jieba.posseg.POSTokenizer(tokenizer=None) 新建自定義分詞器,tokenizer 參數可指定內部使用的 jieba.Tokenizer 分詞器。jieba.posseg.dt 為默認詞性標注分詞器。 # 標注句子分詞后每個詞的詞性,采用和 ictclas 兼容的標記法。import jieba.posseg as pseg words = pseg.cut("我愛北京天安門。") for w in words:print("%s %s" %(w.word, w.flag)) #我 r #愛 v #北京 ns #天安門 ns #。 x# ##Part 4. 關鍵詞提取# ###基于 TF-IDF 算法的關鍵詞提取 # import jieba.analyse # jieba.analyse.extract_tags(sentence, topK = 20, withWeight = False, allowPOS = ()) # sentence:待提取的文本。 # topK:返回幾個 TF/IDF 權重最大的關鍵詞,默認值為20。 # withWeight:是否一并返回關鍵詞權重值,默認值為False。 # allowPOS:僅包括指定詞性的詞,默認值為空,即不進行篩選。 # jieba.analyse.TFIDF(idf_path=None) 新建 TFIDF 實例,idf_path 為 IDF 頻率文件。# optparse模塊OptionParser學習 # optparse是專門在命令行添加選項的一個模塊。from optparse import OptionParser MSG_USAGE = "myprog[ -f ][-s ] arg1[,arg2..]" optParser = OptionParser(MSG_USAGE) #以上,產生一個OptionParser的物件optParser。傳入的值MSG_USAGE可被調用打印命令時顯示出來。optParser.add_option("-f","--file",action = "store",type="string",dest = "fileName") optParser.add_option("-v","--vison", action="store_false", dest="verbose",default='gggggg',help="make lots of noise [default]") #調用OptionParser.add_option()添加選項,add_option()參數說明: #action:存儲方式,分為三種store, store_false, store_true #type:類型 #dest:存儲的變量 #default:默認值 #help:幫助信息fakeArgs = ['-f','file.txt','-v','good luck to you', 'arg2', 'arge'] options, args = optParser.parse_args(fakeArgs) print (options.fileName) print (options.verbose) print (options) print (args) #調用OptionParser.parse_args()剖析并返回一個directory和一個list #parse_args()說明: #如果沒有傳入參數,parse_args會默認將sys.argv[1:]的值作為默認參數。這里我們將fakeArgs模擬輸入的值。 #從返回結果中可以看到, #options為是一個directory,它的內容fakeArgs為“參數/值 ”的鍵值對。 #args 是一個list,它的內容是fakeargs除去options后,剩余的輸入內容。 #options.version和options.fileName都取到與options中的directory的值。print (optParser.print_help()) #輸出幫助信息 #optParser.print_help()說明: #1、最開始的的MSG_USAGE的值:在這個地方顯示出來了。 #2、自動添加了-h這個參數。# In[14]:import jieba.analyse as anl f = open("C:\\Users\\Luo Chen\\Desktop\\demo.txt", "r").read() seg = anl.extract_tags(f, topK = 20, withWeight = True) for tag, weight in seg:print ("%s %s" %(tag, weight))# 關鍵詞提取所使用逆向文件頻率(IDF)文本語料庫可以切換成自定義語料庫的路徑。 # jieba.analyse.set_idf_path(file_name) #file_name為自定義語料庫的路徑 # 如:jieba.analyse.set_idf_path("../extra_dict/idf.txt.big") # .big文件一般是游戲中的文件,比較常見的用途是裝載游戲的音樂、聲音等文件。 # # 關鍵詞提取所使用停用詞(Stop Words)文本語料庫可以切換成自定義語料庫的路徑。 # jieba.analyse.set_stop_words(file_name) #file_name為自定義語料庫的路徑。 # 如:jieba.analyse.set_stop_words("../extra_dict/stop_words.txt")# ###基于 TextRank 算法的關鍵詞提取# 基本思想: # 將待抽取關鍵詞的文本進行分詞; # 以固定窗口大小(默認為5,通過span屬性調整),詞之間的共現關系,構建圖; # 計算圖中節點的PageRank,注意是無向帶權圖。 # jieba.analyse.textrank(sentence, topK = 20, withWeight = False, allowPOS = ('ns', 'n', 'v', 'nv')) 注意默認過濾詞性。 # jieba.analyse.TextRank() 新建自定義TextRank實例。# In[16]:s = "此外,公司擬對全資子公司吉林歐亞置業有限公司增資4.3億元,增資后,吉林歐亞置業注冊資本由7000萬元增加到5億元。吉林歐亞置業主要經營范圍為房地產開發及百貨零售等業務。目前在建吉林歐亞城市商業綜合體項目。2013年,實現營業收入0萬元,實現凈利潤-139.13萬元。" for x, w in jieba.analyse.textrank(s, topK = 5, withWeight = True):print("%s %s" % (x, w))# ##Part 5. 并行分詞(多進程分詞)# 原理:將目標文本按行分隔后,把各行文本分配到多個 Python 進程并行分詞,然后歸并結果,從而獲得分詞速度的可觀提升。 # 基于 python 自帶的 multiprocessing 模塊,目前暫不支持 Windows。 # 用法: # jieba.enable_parallel(4) # 開啟并行分詞模式,參數為并行進程數 # jieba.disable_parallel() # 關閉并行分詞模式 # 實驗結果:在 4 核 3.4GHz Linux 機器上,對金庸全集進行精確分詞,獲得了 1MB/s 的速度,是單進程版的 3.3 倍。 # 注意:并行分詞僅支持默認分詞器 jieba.dt 和 jieba.posseg.dt。# ##Part 6. Tokenize: 返回詞語在原文的起止位置# 注意:輸入參數只接受 unicode # 兩種模式:默認模式、搜索模式。# ###默認模式# In[19]:result = jieba.tokenize(u"永和服裝飾品有限公司") for tk in result:print("%s \t start at: %d \t end at: %d" %(tk[0], tk[1], tk[2]))# ###搜索模式 # 把句子中所有的可以成詞的詞語都掃描出來并確定位置。# In[20]:result = jieba.tokenize(u"永和服裝飾品有限公司", mode = "search") for tk in result:print("%s \t start at: %d \t end at: %d" % (tk[0], tk[1], tk[2]))# ##Part 7. 延遲加載機制 # jieba 采用延遲加載,import jieba 和 jieba.Tokenizer() 不會立即觸發詞典的加載,一旦有必要才開始加載詞典構建前綴字典。如果你想手工初始 jieba,也可以手動初始化。 # import jieba # jieba.initialize() #手動初始化(可選)# 在 0.28 之前的版本是不能指定主詞典的路徑的,有了延遲加載機制后,你可以改變主詞典的路徑: # jieba.set_dictionary("data/dict.txt.big") # 也可以下載你所需要的詞典,然后覆蓋jieba/dict.txt即可。# #二、 第二部分# ##Part 1. 詞頻統計、降序排序# In[21]:article = open("C:\\Users\\Luo Chen\\Desktop\\demo_long.txt", "r").read() words = jieba.cut(article, cut_all = False) word_freq = {} for word in words:if word in word_freq:word_freq[word] += 1else:word_freq[word] = 1freq_word = [] for word, freq in word_freq.items():freq_word.append((word, freq)) freq_word.sort(key = lambda x: x[1], reverse = True)max_number = int(input(u"需要前多少位高頻詞? "))for word, freq in freq_word[: max_number]:print (word, freq)# ##Part 2. 人工去停用詞# 標點符號、虛詞、連詞不在統計范圍內。# In[22]:stopwords = [] for word in open("C:\\Users\\Luo Chen\\Desktop\\stop_words.txt", "r"):stopwords.append(word.strip()) article = open("C:\\Users\\Luo Chen\\Desktop\\demo_long.txt", "r").read() words = jieba.cut(article, cut_all = False) stayed_line = "" for word in words:if word.encode("utf-8") not in stopwords:stayed_line += word + " " print (stayed_line)# ##Part 3. 合并同義詞# 將同義詞列舉出來,按下Tab鍵分隔,把第一個詞作為需要顯示的詞語,后面的詞語作為要替代的同義詞,一系列同義詞放在一行。 # 這里,“北京”、“首都”、“京城”、“北平城”、“故都”為同義詞。# In[24]:combine_dict = {}for line in open("C:\\Users\\Luo Chen\\Desktop\\tongyici.txt", "r"):seperate_word = line.strip().split("\t")num = len(seperate_word)for i in range(1, num):combine_dict[seperate_word[i]] = seperate_word[0]jieba.suggest_freq("北平城", tune = True) seg_list = jieba.cut("北京是中國的首都,京城的景色非常優美,就像當年的北平城,我愛這故都的一草一木。", cut_all = False) f = ",".join(seg_list) result = open("C:\\Users\\Luo Chen\\Desktop\\output.txt", "w") result.write(f.encode("utf-8")) result.close()for line in open("C:\\Users\\Luo Chen\\Desktop\\output.txt", "r"):line_1 = line.split(",")final_sentence = "" for word in line_1:if word in combine_dict:word = combine_dict[word]final_sentence += wordelse:final_sentence += word print (final_sentence)# ##Part 4. 詞語提及率# 主要步驟:分詞——過濾停用詞(略)——替代同義詞——計算詞語在文本中出現的概率。# In[31]:origin = open("C:\\Users\\Luo Chen\\Desktop\\tijilv.txt", "r").read() jieba.suggest_freq("晨媽媽", tune = True) jieba.suggest_freq("大黑牛", tune = True) jieba.suggest_freq("能力者", tune = True) seg_list = jieba.cut(origin, cut_all = False) f = ",".join(seg_list)output_1 = open("C:\\Users\\Luo Chen\\Desktop\\output_1.txt", "w") output_1.write(f.encode("utf-8")) output_1.close()combine_dict = {} for w in open("C:\\Users\\Luo Chen\\Desktop\\tongyici.txt", "r"):w_1 = w.strip().split("\t")num = len(w_1)for i in range(0, num):combine_dict[w_1[i]] = w_1[0]seg_list_2 = "" for i in open("C:\\Users\\Luo Chen\\Desktop\\output_1.txt", "r"):i_1 = i.split(",")for word in i_1:if word in combine_dict:word = combine_dict[word]seg_list_2 += wordelse:seg_list_2 += word print (seg_list_2)# In[35]:freq_word = {} seg_list_3 = jieba.cut(seg_list_2, cut_all = False) for word in seg_list_3:if word in freq_word:freq_word[word] += 1else:freq_word[word] = 1freq_word_1 = [] for word, freq in freq_word.items():freq_word_1.append((word, freq)) freq_word_1.sort(key = lambda x: x[1], reverse = True) for word, freq in freq_word_1:print( word, freq)total_freq = 0 for i in freq_word_1:total_freq += i[1]for word, freq in freq_word.items():freq = float(freq) / float(total_freq)print( word, freq)# ##Part 5. 按詞性提取# In[36]:import jieba.posseg as pseg word = pseg.cut("李晨好帥,又能力超強,是“大黑?!?#xff0c;也是一個能力者,還是隊里貼心的晨媽媽。") for w in word:if w.flag in ["n", "v", "x"]:print (w.word, w.flag)

    ?

    總結

    以上是生活随笔為你收集整理的jieba分词工具的使用-python代码的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    欧美日韩精品电影 | 欧美日韩3p | 麻豆一区二区三区视频 | 国产精品久久久久久妇 | 在线看黄网站 | 日本最新高清不卡中文字幕 | 黄色大全在线观看 | 婷婷午夜天 | 麻豆高清免费国产一区 | 在线观看 国产 | 99国产视频在线 | 欧美一进一出抽搐大尺度视频 | 中文字幕在线一区二区三区 | 97av在线视频免费播放 | 精品毛片在线 | 男女啪啪网站 | 亚洲高清视频在线 | 成年人在线看视频 | 狠狠狠狠狠狠干 | 国产精品自产拍在线观看蜜 | 色视频网址 | 精品一区电影 | 久久婷婷精品视频 | 精品视频www | 精品国产1区二区 | 天天草综合网 | 久草电影免费在线观看 | 国产精品麻豆果冻传媒在线播放 | 日韩午夜在线观看 | 00av视频 | 久久影院精品 | 国产精品原创av片国产免费 | 国产一区自拍视频 | 天堂av免费 | 91亚洲国产成人久久精品网站 | 成人在线视频免费观看 | 久久久久久久久久久影视 | 欧美精品做受xxx性少妇 | 亚洲午夜久久久久久久久久久 | 三级黄色大片在线观看 | 日韩在线短视频 | 成人国产精品一区二区 | 一区久久久 | a级国产毛片 | 久久视频在线看 | 国产麻豆电影在线观看 | www最近高清中文国语在线观看 | 免费大片黄在线 | 免费观看丰满少妇做爰 | 中文字幕av全部资源www中文字幕在线观看 | 国产精品久久久久国产a级 激情综合中文娱乐网 | bayu135国产精品视频 | 国产福利91精品一区二区三区 | 亚洲国产精品99久久久久久久久 | 国产成人精品综合久久久 | 婷婷五天天在线视频 | 五月天综合色 | 欧美午夜一区二区福利视频 | 国产一二三在线视频 | 亚洲aⅴ在线 | 九九九国产 | 久久精品国产第一区二区三区 | 亚洲欧美日韩精品一区二区 | 国产精品手机在线播放 | 一区二区 久久 | 亚洲japanese制服美女 | 99精品美女| 国产在线观看二区 | 中文字幕 国产专区 | 日日操天天操狠狠操 | 成人综合婷婷国产精品久久免费 | 亚洲精品黄网站 | 亚洲 欧美 精品 | 国产亚洲精品女人久久久久久 | 13日本xxxxxⅹxxx20 | 久久精品精品 | 久久艹艹 | 91精品国产成人观看 | 久久视频在线观看免费 | 在线a视频免费观看 | 黄色免费网站下载 | 日韩精品一二三 | 久久国产亚洲视频 | 国产视频在线观看一区 | 久久综合福利 | 超碰人人在线观看 | av天天澡天天爽天天av | 国产精品久久久久久久久久不蜜月 | 午夜久久久精品 | 国产精品一区二区麻豆 | 97超碰人人在线 | 亚一亚二国产专区 | 激情综合一区 | 中文字幕在线视频国产 | 国产不卡免费 | 久久在线精品视频 | 国产一级一级国产 | 亚洲在线视频播放 | 最新日本中文字幕 | 日韩av图片 | 正在播放一区 | 欧美精选一区二区三区 | 久草www | 日日夜夜人人天天 | 久久精品一级片 | 99视频在线观看免费 | 国产v欧美| 天天操天天操天天操天天操 | 美女久久一区 | 精品国产成人在线影院 | 99精品国产免费久久久久久下载 | 国产精品乱码久久久久久1区2区 | 精品久久久网 | 久久免费99精品久久久久久 | 欧美日韩在线电影 | 国产精品v欧美精品 | 97网在线观看 | 手机av在线网站 | 中文成人字幕 | 国产成人av网址 | 探花视频在线版播放免费观看 | 在线观看视频国产 | 五月婷婷丁香六月 | 久久人人艹 | a电影免费看 | 九九有精品 | 欧美一区日韩精品 | 国产精品青草综合久久久久99 | 999久久a精品合区久久久 | 亚洲欧美少妇 | 久久草草影视免费网 | 国产中文字幕第一页 | 日韩黄色大片在线观看 | 日韩欧美在线观看 | 久久99久国产精品黄毛片入口 | 亚洲电影成人 | 国产一区二区不卡视频 | 四虎伊人 | 丁香婷婷色综合亚洲电影 | 国产日韩在线播放 | 亚洲精品在线网站 | 久久免费成人网 | 成年人黄色在线观看 | 亚洲jizzjizz日本少妇 | 波多野结衣电影一区二区三区 | 亚洲精品大片www | 97综合在线 | 在线岛国av | 免费色黄| 国产成人免费精品 | 狠狠干激情 | 成人a级免费视频 | 精品国产伦一区二区三区免费 | 激情欧美一区二区免费视频 | 三级黄色免费片 | 综合色播| 91精品视频播放 | 日韩午夜小视频 | 99国产精品久久久久久久久久 | 亚洲国产资源 | 永久免费精品视频网站 | 国产中文字幕视频在线观看 | 天天操天操 | 国产精品观看在线亚洲人成网 | 久产久精国产品 | 欧美国产亚洲精品久久久8v | 99热播精品| 日韩手机在线 | 天天操导航| 九九九九免费视频 | 91精品在线观看视频 | 天天操天天摸天天爽 | 97成人在线观看视频 | 亚洲精品男人天堂 | 日日日操| 在线观看视频国产一区 | 欧美 激情 国产 91 在线 | 成人国产精品久久久久久亚洲 | av免费观看高清 | av免费看av | 免费在线观看中文字幕 | 成人av免费 | 在线成人免费电影 | 丁香婷婷深情五月亚洲 | 在线观看91精品国产网站 | 在线观看亚洲国产精品 | 波多野结衣在线视频一区 | 日韩高清精品免费观看 | 91综合视频在线观看 | 91尤物国产尤物福利在线播放 | 天天干天天操天天拍 | 中文字幕在线资源 | 91精品中文字幕 | 美女视频免费一区二区 | a级黄色片视频 | 97国产一区 | 91免费看黄色 | a级一a一级在线观看 | 国产又粗又猛又黄视频 | 中日韩三级视频 | 欧美久久久影院 | 欧美激精品 | 蜜桃视频在线视频 | 人人看97 | 久久社区视频 | 国产精选在线观看 | 免费日韩 精品中文字幕视频在线 | 成人a毛片| 国产一二三区av | 99久久激情 | 国产精品一区在线观看你懂的 | 久久免费视频5 | 中文字幕av免费 | www.狠狠色| 久久久精品国产免费观看一区二区 | 一区二区三区免费网站 | 在线观看日韩免费视频 | 免费男女羞羞的视频网站中文字幕 | 欧美极度另类性三渗透 | 中文字幕在线播放日韩 | 欧美一区二区在线免费看 | 国产二区视频在线 | 午夜在线免费观看 | 日韩精品免费在线观看 | 成人av.com| 99久久精品无免国产免费 | 免费在线播放av电影 | 免费情缘 | av高清一区二区三区 | 欧美91精品国产自产 | 日韩精品视频网站 | 中文字幕观看av | 日本中文字幕在线免费观看 | 国产亚洲欧美一区 | 人人澡人摸人人添学生av | 午夜视频黄 | 91爱爱网址 | 久久精品2| 在线视频中文字幕一区 | 狠狠干婷婷 | 懂色av懂色av粉嫩av分享吧 | 亚洲最大av在线播放 | 天天av天天 | 丁香资源影视免费观看 | 天天搞天天| 日韩网站视频 | 91免费网| 精品国产一区二区三区四区vr | 国产精品女视频 | 永久av免费在线观看 | 国产精品二区三区 | 色哟哟国产精品 | 久久五月网 | 久久久久久久久影院 | 日韩网站在线观看 | 激情六月婷婷久久 | 六月色婷婷 | 在线观看国产成人av片 | 久久 在线| 久久av黄色| 在线观看国产日韩欧美 | 亚州av一区 | 国产一区二区三区免费视频 | 色综合天天综合 | 天天干夜夜干 | 精品国产诱惑 | 国产精品12 | 亚洲综合色婷婷 | 中午字幕在线 | 亚洲日本在线视频观看 | 久久亚洲热| 99在线精品视频在线观看 | 久久久综合 | 福利一区二区三区四区 | 亚洲精品一区二区网址 | 国产在线va | 成人午夜性影院 | 日韩天天操 | 日韩免费一级a毛片在线播放一级 | 成人动漫一区二区三区 | 亚洲国产人午在线一二区 | 日韩午夜电影院 | www.国产在线视频 | 国产精品成人久久 | 精品久久精品久久 | 波多野结衣理论片 | 天天操夜夜叫 | 成人天堂网 | 久热这里有精品 | 韩国av三级| 精品自拍sae8—视频 | 一区二区三区免费播放 | 久久国产亚洲精品 | 九九免费精品视频在线观看 | 日本一区二区免费在线观看 | 国产在线精品区 | 日韩精品视频在线观看免费 | 国产一区二区三区久久久 | 亚洲精品乱码久久久久久按摩 | 麻豆国产视频下载 | 香蕉在线播放 | 麻豆精品视频在线观看免费 | 久久6精品 | 国产99免费 | 国产高清久久 | 激情av五月婷婷 | 激情中文在线 | 最近日韩免费视频 | 日本在线观看中文字幕 | 欧美成人黄色 | 黄色成人在线观看 | 久久国产精品小视频 | 国产又粗又硬又长又爽的视频 | 黄色在线观看免费 | 成人国产精品入口 | 在线视频第一页 | 欧美日韩高清国产 | 亚洲久草在线视频 | 久久精品欧美日韩精品 | 99热只有精品在线观看 | 狠狠色伊人亚洲综合成人 | 亚洲精品成人av在线 | 久草免费福利在线观看 | 成人在线播放视频 | 欧日韩在线 | 国产精品网红直播 | 成年人天堂com | 久久久精品国产一区二区电影四季 | 久久精品1区 | 亚洲午夜av电影 | 天天爱综合 | 国产精品自拍在线 | 美女国产| 午夜婷婷在线播放 | 国产精品久久久久免费a∨ 欧美一级性生活片 | 亚洲jizzjizz日本少妇 | 夜色成人网 | 91激情视频在线 | 免费观看成人av | 日韩丝袜| 亚洲欧美成人综合 | 久久久www成人免费精品 | 日韩a欧美 | 一级淫片a| 国产专区欧美专区 | 国产在线传媒 | 综合久久精品 | 西西444www| 欧美日韩国产网站 | 中文字幕乱码电影 | 色天天 | 国产福利一区二区三区在线观看 | 欧美日韩精品久久久 | 久久久久国产精品午夜一区 | 亚洲激情综合网 | 欧美久久久久久久久久久久 | 成人免费在线观看入口 | 亚洲五月六月 | 免费视频一级片 | 丁香五婷 | 在线观看你懂的网站 | 久久久精品高清 | 黄网av在线 | 精品国产精品一区二区夜夜嗨 | 在线观看亚洲 | 美腿丝袜av | 香蕉视频网站在线观看 | 最近免费中文字幕大全高清10 | 久久婷婷精品视频 | 免费日韩av片 | 2022久久国产露脸精品国产 | 国产视频不卡一区 | 亚色视频在线观看 | 黄色录像av| 国产视频在线观看一区 | 国产免费a | 91在线视频观看 | av在线播放快速免费阴 | 黄网站色欧美视频 | 国产成人精品在线播放 | 国产亚洲情侣一区二区无 | 欧美色插 | 国产成人综合精品 | 草在线| 99re久久精品国产 | 久久久午夜剧场 | 久久激情综合网 | 人人草在线观看 | 福利电影久久 | 成人视屏免费看 | 中文字幕一区二区在线播放 | 久久久久久久影院 | 日韩a欧美 | 日本h视频在线观看 | 国产精品一区二区三区免费看 | 国产精品欧美久久久久天天影视 | 99久久婷婷国产一区二区三区 | 看片黄网站 | 婷婷激情欧美 | 亚洲精品456在线播放第一页 | 99久高清在线观看视频99精品热在线观看视频 | 欧美日韩精品在线播放 | 激情五月亚洲 | 一区 二区 精品 | 成年人网站免费在线观看 | 天天天色综合 | 精品久久久久久久久久岛国gif | 亚洲影院色 | 中文字幕人成不卡一区 | 18国产精品福利片久久婷 | 欧美有色 | 五月婷婷欧美视频 | 国产免费黄视频在线观看 | 日韩免费一区二区三区 | 在线视频日韩欧美 | 国产精品久久久网站 | 狠狠网亚洲精品 | 久久久久美女 | 日韩av高潮| 国产1区2区 | 中文字幕视频免费观看 | 国产91勾搭技师精品 | 久久欧美视频 | 中文字幕资源网在线观看 | 久久人人爽视频 | 成人在线黄色 | 99日韩精品 | 在线va视频| 久久精品中文字幕一区二区三区 | 国产xvideos免费视频播放 | 色视频网址 | 天天操天天艹 | 在线看免费 | av高清在线 | 国产无套精品久久久久久 | 97av免费视频 | 成人精品一区二区三区中文字幕 | 国产精品系列在线播放 | 久久精品国产一区 | 午夜久操 | 99久久精品免费看国产麻豆 | 在线影视 一区 二区 三区 | 免费三级黄 | 免费高清看电视网站 | 91亚洲欧美 | 日韩中文免费视频 | 亚洲一区视频在线播放 | 中文字幕一区二区三区乱码在线 | 青青河边草免费直播 | 亚洲成人国产 | 狠狠色丁香久久婷婷综合_中 | 日日夜夜骑 | 九九久久久久99精品 | 看国产黄色片 | 99re国产 | 日韩在线播放视频 | 国产成人精品一区二区在线观看 | 免费在线观看视频一区 | 欧美日韩精品二区第二页 | 青青色影院 | 成人黄色中文字幕 | 免费黄色小网站 | 精品免费视频 | 国产精品午夜在线观看 | 中文字幕中文字幕中文字幕 | 福利av影院 | 免费在线黄色av | 国产精品99久久免费黑人 | 日韩三级中文字幕 | 99久热| 狠狠五月天| av千婊在线免费观看 | 中文乱幕日产无线码1区 | 国产精品资源 | 五月婷婷av在线 | 国产成人精品久久二区二区 | 国产色在线观看 | 丁香六月综合网 | 激情综合网天天干 | 蜜臀久久99精品久久久无需会员 | 精品国产电影一区二区 | 国产精品第十页 | 人人爽人人射 | 伊人导航 | www黄| 视频一区二区三区视频 | 久久九九国产视频 | 月丁香婷婷 | 日韩一区正在播放 | 亚洲乱码久久 | 色综合久久精品 | 97热视频| 天天操导航 | 国产精品video爽爽爽爽 | 91在线看片 | 日本久久久久久久久久 | 日批在线看 | 99久久精品一区二区成人 | 久久精品牌麻豆国产大山 | 亚洲永久字幕 | 欧美亚洲专区 | 欧美精品xxx | 久草国产在线观看 | 欧美另类性 | 日韩xxxxxxxxx | 精品国产乱码久久久久久久 | 天天干,天天射,天天操,天天摸 | 一区二区欧美激情 | 日韩欧美成人网 | 一级a性色生活片久久毛片波多野 | 国产精品久免费的黄网站 | 国产精品久久人 | 精品视频区 | 白丝av在线 | 欧美精品首页 | 99精品免费久久久久久久久日本 | 96在线| 成人动态视频 | 国产精品一区二区在线观看 | 日韩在线视频免费看 | 一区二区三区影院 | 91av在线电影| 天天操夜夜操天天射 | 国产精品欧美久久久久无广告 | 911精品视频 | 中文字幕一区二区三区精华液 | 亚洲免费精品视频 | 久久 在线 | 精品在线视频一区二区三区 | 国产精品女同一区二区三区久久夜 | 中文字幕一区二区三区在线观看 | 黄污网站在线 | 亚洲乱码国产乱码精品天美传媒 | 免费瑟瑟网站 | 中文字幕在线影视资源 | 久久九九久久九九 | 久久国产露脸精品国产 | 国产在线久草 | 97av在线 | 免费男女羞羞的视频网站中文字幕 | 四虎在线观看 | 成年人看片| 黄色毛片观看 | 国产精品久久久久久久久费观看 | 亚洲精品动漫成人3d无尽在线 | 免费日韩视| 免费av在线播放 | 18久久久| av播放在线 | 国产精品一区二区免费看 | 久久久国产精品人人片99精片欧美一 | 996久久国产精品线观看 | 国产女做a爱免费视频 | 天天舔夜夜操 | 天天干天天干天天操 | 亚洲精品视频网址 | 99久久久久国产精品免费 | 国产精品美女999 | 天天操天天摸天天干 | 中文字幕第一页在线 | 日本二区三区在线 | av天天干 | 国产一区二区久久精品 | www日韩在线观看 | 国产不卡av在线播放 | 久久久久久久免费 | 国产三级精品三级在线观看 | 国产区av在线 | 黄色av一区 | 久久手机视频 | 日韩小视频| 成人羞羞视频在线观看免费 | 精品国偷自产国产一区 | 五月天精品视频 | 成人av片免费观看app下载 | 超碰人人在 | 青春草免费视频 | 亚洲精品美女 | 在线色亚洲 | 69国产盗摄一区二区三区五区 | 欧美日本高清视频 | 色97在线| 九九免费观看视频 | 91香蕉亚洲精品 | 免费看片色 | 久操伊人 | 麻豆传媒电影在线观看 | 久久久九色精品国产一区二区三区 | 久久国产网站 | 国产色a在线观看 | 国产在线色站 | 91成人蝌蚪 | 四虎免费在线观看 | 粉嫩高清一区二区三区 | 91精品国产三级a在线观看 | 久久五月婷婷丁香社区 | 成全免费观看视频 | 色www精品视频在线观看 | 97超碰人人澡人人爱学生 | 韩国av免费在线观看 | 亚洲最新视频在线 | 色播五月激情五月 | 欧美巨乳波霸 | 国产精品久久久久久久久免费 | 久久理论片 | 亚洲精品国产第一综合99久久 | 欧美日韩免费在线观看视频 | 成人av动漫在线 | 国产一级做a爱片久久毛片a | 五月天婷婷在线观看视频 | 国产精品原创av片国产免费 | 国产精品视频全国免费观看 | 91免费在线看片 | 精品日韩视频 | 中文字幕免费国产精品 | 成片视频免费观看 | 99久久超碰中文字幕伊人 | 国产成人在线看 | 欧美日韩在线视频一区二区 | 国产成人久久精品 | 国产精品久久久久久久久久久久冷 | 亚洲欧美少妇 | 91视频这里只有精品 | 69国产盗摄一区二区三区五区 | 久久久久久久影院 | 99热高清 | 国产亚洲片 | 精品国产精品一区二区夜夜嗨 | 久久国产精品免费一区二区三区 | 亚洲欧洲日韩 | 超碰日韩 | 天天玩天天操天天射 | 九九视频网站 | 国产精品一区二区62 | 久久综合影视 | av高清免费在线 | 亚洲精品午夜久久久久久久 | 狠狠躁日日躁狂躁夜夜躁 | 中文乱码视频在线观看 | 国产香蕉97碰碰久久人人 | 在线视频婷婷 | 国产又粗又猛又黄又爽 | 国产中文字幕在线 | 久久久国内精品 | 国产三级香港三韩国三级 | 9999在线| 狠狠操狠狠干2017 | 一区二区中文字幕在线 | 久久久高清一区二区三区 | 在线观看国产日韩 | 青青河边草免费观看完整版高清 | 碰天天操天天 | 久久激五月天综合精品 | av超碰免费在线 | 久操视频在线免费看 | 国产精品第52页 | 在线国产一区 | 国产精品一级视频 | 欧美十八| 97精产国品一二三产区在线 | 九九天堂| 久久精品一区二区三区中文字幕 | 欧美精品亚洲二区 | 婷婷播播网 | 欧美性做爰猛烈叫床潮 | 五月天婷婷狠狠 | 天天干天天干天天色 | 日韩电影在线一区 | 久久免费的精品国产v∧ | 天天色天天射天天操 | www.久久精品视频 | 中文在线免费一区三区 | 日韩va亚洲va欧美va久久 | 日韩高清观看 | 九九久久久久久久久激情 | 久久久久久久久免费视频 | 激情婷婷丁香 | 国产精品久久久久影视 | 国产一级二级av | 黄色成品视频 | 久草免费在线 | 国产一级黄大片 | 国产精品大片在线观看 | 九色在线视频 | 香蕉视频在线观看免费 | 欧美黄色高清 | 欧美性做爰猛烈叫床潮 | 国产96在线观看 | 亚洲开心激情 | 国产精品爽爽爽 | 人人澡人人爽欧一区 | 国产人成在线视频 | 国产一区精品在线 | 精品综合久久久 | 国产色 在线 | www.com黄色| 91 中文字幕 | 国产在线国产 | 国产最新福利 | 国产最新在线观看 | 伊人超碰在线 | 国产一区播放 | 超碰在线98 | 91一区二区三区在线观看 | 久久1电影院 | 久久超级碰视频 | av在线一| 日韩在线| 亚洲人成在线电影 | 国产精品久久久久9999 | 中文在线字幕免费观 | 91丨九色丨国产在线观看 | 国产精品中文字幕在线播放 | 国内精品视频在线播放 | 亚洲最大av在线播放 | 久久九九国产视频 | 欧美另类巨大 | 色婷婷国产精品一区在线观看 | 欧美一级视频一区 | 国产日本亚洲高清 | 国产精品一区免费看8c0m | 不卡视频一区二区三区 | 91成人天堂久久成人 | 亚洲视频aaa | 亚洲成人精品在线观看 | 片黄色毛片黄色毛片 | 91九色蝌蚪视频网站 | 欧美极品久久 | 国语麻豆 | 玖玖在线播放 | 亚洲精品资源 | 亚洲国产精品一区二区尤物区 | 精品久久久网 | 久久久久区 | 久久激情综合 | 国产精品ssss在线亚洲 | 国产精品久久久久久久久毛片 | 欧美在线1区 | 国语麻豆| 麻豆国产露脸在线观看 | 欧美在线一二 | 亚洲精品免费在线视频 | 欧美一二在线 | 97在线观看视频 | 日本三级国产 | 日韩中文字幕视频在线 | 一色屋精品视频在线观看 | 天天草综合 | 久久成人高清 | 精品国产精品久久一区免费式 | 91精品国产99久久久久 | 97天堂 | 欧美国产一区二区 | 天天超碰 | a级国产毛片 | 99婷婷狠狠成为人免费视频 | 日韩性xxx| 天天干,天天操,天天射 | 探花视频在线观看 | 日韩一区二区三区在线看 | 久久久麻豆精品一区二区 | 三级a视频| 国产理论免费 | 色狠狠操 | 三级黄色在线观看 | 日本韩国在线不卡 | 亚洲国产成人精品在线观看 | 亚洲无吗av | 欧美成年网站 | 久久久精品欧美一区二区免费 | 99r精品视频在线观看 | av一区二区三区在线播放 | 91系列在线观看 | 国产一区在线免费 | 国产精品黑丝在线观看 | 日韩av电影免费在线观看 | av网站有哪些 | 免费看片黄色 | 国产精品无av码在线观看 | 九九热免费视频在线观看 | 精品亚洲免费 | 久久久精品一区二区三区 | www.婷婷色 | 国产三级国产精品国产专区50 | 国产伦理久久精品久久久久_ | 精品久久久久国产免费第一页 | 国产高清一级 | 日韩欧美精品在线 | 久久午夜精品视频 | 综合久久久久久久久 | 97国产精品 | 高清不卡一区二区三区 | 波多野结衣精品视频 | 91九色视频导航 | 日韩av三区 | 激情五月婷婷综合网 | 成人黄色av免费在线观看 | 欧美精品被 | www.亚洲精品视频 | 日韩三级视频在线看 | 欧美日本日韩aⅴ在线视频 插插插色综合 | 日本女人b | 成人午夜黄色 | 香蕉视频在线播放 | 五月天婷婷免费视频 | 九九九在线观看视频 | 亚洲精品在线视频 | 亚洲va欧美| 四虎国产精品永久在线国在线 | 欧美精品国产综合久久 | 91精品视频免费观看 | 亚洲成人免费在线 | 婷婷六月久久 | 欧美性天天| 97av视频| www.久久爱.cn| 日p视频在线观看 | 日韩欧美一区二区三区在线 | 免费看黄网站在线 | 免费a级观看 | 97精品欧美91久久久久久 | 欧美日韩一区二区在线观看 | 91插插插免费视频 | 日本久久久久久久久久久 | 91九色porny在线 | 国产精品国产毛片 | 亚洲精品成人在线 | 色中色综合| 一区二区三区在线观看免费 | 97精品一区二区三区 | 国产人成免费视频 | 亚洲一级片免费观看 | 国语自产偷拍精品视频偷 | 一区二区三区四区不卡 | 免费av免费观看 | 中文字幕资源在线观看 | va视频在线观看 | 日韩欧美电影在线 | 玖玖玖精品 | 欧美激情操 | 视频直播国产精品 | 成人h视频 | 国精产品一二三线999 | 在线免费观看黄色小说 | 制服丝袜一区二区 | 91成人精品国产刺激国语对白 | 午夜视频日本 | 97视频在线免费观看 | 精品产品国产在线不卡 | 91观看视频 | 国产福利av在线 | 五月婷丁香网 | 国内精品久久久久久中文字幕 | 黄色av一区二区三区 | 在线国产激情视频 | 国产在线免费观看 | www免费看片com | 91精品国产欧美一区二区 | 友田真希av| 日本黄色免费电影网站 | 一本一本久久a久久精品综合 | 日韩免费一级电影 | av一级片 | 91日韩在线播放 | 99久久精品国产毛片 | 中日韩男男gay无套 日韩精品一区二区三区高清免费 | 在线观看国产成人av片 | 天天躁天天躁天天躁婷 | 国产人免费人成免费视频 | 精品亚洲免a | 精品国产自在精品国产精野外直播 | 热re99久久精品国产99热 | 黄色三级久久 | 夜夜干夜夜 | 天天综合成人 | 热久在线 | 久久精品xxx | 国产 一区二区三区 在线 | 亚洲精品综合久久 | 手机av电影在线观看 | 黄色软件在线看 | www.狠狠色.com | 国产一区在线免费观看视频 | 又长又大又黑又粗欧美 | 国产色视频网站 | 国产精品自产拍在线观看桃花 | 国产在线观看你懂得 | 免费看成人 | 91久久久久久国产精品 | 美女网站视频免费都是黄 | 午夜成人免费影院 | 天天激情在线 | 九九热在线视频免费观看 | 欧美国产日韩一区二区三区 | 99亚洲天堂 | 91精品对白一区国产伦 | av怡红院 | 国产999精品久久久影片官网 | 亚洲国产日韩在线 | 久草视频免费播放 | 97在线看 | 综合精品在线 | 婷婷五综合 | 黄色免费高清视频 | 国产护士hd高朝护士1 | 欧美成人性战久久 | 在线观看av中文字幕 | 六月丁香激情综合 | 99久久综合国产精品二区 | 欧美激情视频一二三区 | 欧美成人精品欧美一级乱黄 | 91成人网在线观看 | 少妇视频一区 | 九九在线免费视频 | 国产女人40精品一区毛片视频 | 精品国产伦一区二区三区观看说明 | 看片黄网站| 91天堂影院 | 久久福利精品 | 不卡av电影在线观看 | 日韩三区在线 | 在线色视频小说 | 免费日韩电影 | 丁香婷婷在线观看 | 亚洲高清视频一区二区三区 | 亚洲综合一区二区精品导航 | 久久久受www免费人成 | 999视频网| 日韩在线视频免费看 | 91久久在线观看 | 亚洲五月六月 | 亚洲精品美女在线观看 | 一区 在线观看 | 99精品偷拍视频一区二区三区 | 亚洲第一av在线播放 | 四虎成人网 | 亚洲视频综合 | 亚洲更新最快 | 日本久久成人 | 色网站免费在线看 | 黄色软件在线观看视频 | 中文在线a√在线 | 久久 国产一区 | 国产资源网站 | 最新日韩中文字幕 | 韩日色视频 | 日韩欧美在线视频一区二区三区 | 在线观看日韩视频 | 日韩中文字幕第一页 | 成人黄色大片在线观看 | 日日干夜夜操视频 | 日韩高清毛片 | 亚洲精品一区中文字幕乱码 | 黄色一级性片 | 在线国产高清 | 在线观看av的网站 | 午夜影院一级 | 中文字幕永久在线 | 久操久| 国产精品久久久久一区二区三区 | 亚洲国产电影在线观看 | av黄色亚洲| 国产精品不卡av | 成人夜晚看av | 免费色视频网址 | 日韩二级毛片 | 国产亚洲精品成人av久久ww | 中文字幕欧美三区 | 日韩激情在线 | 国产精美视频 | www黄在线 | 一级特黄aaa大片在线观看 | 日韩免费电影在线观看 | 亚洲精品视频网址 | 久精品一区| 在线观看麻豆av | 婷婷av在线| 中文字幕888| 激情五月综合网 | 五月婷婷导航 | 国产精品大尺度 | 日韩电影一区二区三区 | 91入口在线观看 | 三上悠亚一区二区在线观看 | 国产精品美女久久久 | 日日操天天操狠狠操 | 亚洲日韩精品欧美一区二区 | 97av.com| 色天天中文 | 欧美日韩xx | 在线观看中文字幕dvd播放 | 日韩精品一区二区三区在线视频 | 国产xvideos免费视频播放 | 午夜91视频| 91精品毛片 | 韩日三级在线 | 91精品播放 | 亚洲精品美女在线观看 |