日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python网络爬虫与信息提取

發布時間:2023/12/20 python 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python网络爬虫与信息提取 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1.Requests庫入門

Requests安裝

用管理員身份打開命令提示符:

pip install requests

測試:打開IDLE:

>>> import requests >>> r = requests.get("http://www.baidu.com") >>> r.status_code 200 >>> r.encoding = 'utf-8' #修改默認編碼 >>> r.text #打印網頁內容

HTTP協議

超文本傳輸協議,Hypertext Transfer Protocol.

HTTP是一個基于“請求與響應”模式的、無狀態的應用層協議。

HTTP協議采用URL作為定位網絡資源的標識。

URL格式

http://host[:port][path]

host:合法的Internet主機域名或IP地址

port:端口號,缺省端口為80

path:請求資源的路徑

操作

方法說明
GET請求獲取URL位置的資源
HEAD請求獲取URl位置資源的響應消息報告,即獲得該資源的頭部信息
POST請求向URL位置的資源后附加新的數據
PUT請求向URL位置存儲一個資源,覆蓋原URL位置的資源
PATCH請求局部更新URL位置的資源,即改變該處資源的部分內容
DELETE請求刪除URL位置存儲的資源

Requests主要方法

方法說明
requests.request()構造一個請求,支撐以下各方法的基礎方法
requests.get()獲取HTML網頁的主要方法,對應于HTTP的GET
requests.head()獲取HTML網頁頭信息的方法,對應于HTTP的HEAD
requests.post()向HTML網頁提交POST請求的方法,對應于HTTP的POST
requests.put()向HTML網頁提交PUT請求的方法,對應于HTTP的PUT
requests.patch()向HTML網頁提交局部修改請求,對應于HTTP的PATCH
requests.delete()向HTML網頁提交刪除請求,對應于HTTP的DELETE

主要方法為request方法,其他方法都是在此方法基礎上封裝而來以便使用。

request()方法

requests.request(method,url,**kwargs) #method:請求方式,對應get/put/post等7種 #url:擬獲取頁面的url鏈接 #**kwargs:控制訪問的參數,共13個

**kwargs:控制訪問的參數,均為可選項

get()方法

r = requests.get(url) 完整方法: requests.get(url,params=None,**kwargs)url:擬獲取頁面的url鏈接params:url中的額外參數,字典或字節流格式,可選**kwargs:12個控制訪問的參數,可選

get()方法:

構造一個向服務器請求資源的Request對象

返回一個包含服務器資源的Response對象

Response對象

屬性說明
r.status_codeHTTP請求的返回狀態,200表示連接成功,404表示失敗
r.textHTTP響應內容的字符串形式,即:url對應的頁面內容
r.encoding從HTTP header中猜測的響應內容編碼方式
r.apparent_encoding從內容中分析出的響應內容編碼方式(備選編碼方式)
r.contentHTTP響應內容的二進制形式

head()方法

r = requests.head('http://httpbin.org/get') r.headers

獲取網絡資源的概要信息

post()方法

向服務器提交新增數據

payload = {'key1':'value1','key2':'value2'} #新建一個字典 #向URL POST一個字典,自動編碼為form(表單) r = requests.post('http://httpbin.org/post',data = payload) #向URL POST一個字符串,自動編碼為data r = requests.post('http://httpbin.org/post',data = 'ABC') print(r.text)

put()方法

同post,只不過會把原來的內容覆蓋掉。

patch()方法

delete()方法

Requests庫的異常

異常說明
requests.ConnectionError網絡連接錯誤異常,如DNS查詢失敗、拒絕連接等
requests.HTTPErrorHTTP錯誤異常
requests.URLRequiredURL缺失異常
requests.TooManyRedirects超過最大 重定向次數,產生重定向異常
requests.ConnectTimeout連接遠程服務器超時異常
requests.Timeout請求URL超時,產生超時異常
異常方法說明
r.raise_for_status如果不是200產生異常requests.HTTPError

爬取網頁的通用代碼框架

import requestsdef getHTMLText(url):try:r = requests.get(url,timeout=30)r.raise_for_status() #如果不是200,引發HTTPError異常r.recoding = r.apparent_encodingreturn r.textexcept:return "產生異常" if __name__ == "__main__":url = "http://www.baidu.com"print(getHTMLText(url))

實例

向百度提交關鍵詞

import requests# 向搜索引擎進行關鍵詞提交 url = "http://www.baidu.com" try:kv = {'wd':'python'}r = requests.get(url,params =kv)print(r.request.url)r.raise_for_status()print(len(r.text)) except:print("產生異常")

獲取網絡圖片及存儲

import requests import os url = "http://image.ngchina.com.cn/2019/0423/20190423024928618.jpg" root = "D://2345//Temp//" path = root + url.split('/')[-1] try:if not os.path.exists(root):os.mkdir(root)if not os.path.exists(path):r = requests.get(url)with open(path,'wb') as f:f.write(r.content) #r.content返回二進制內容f.close()print("文件保存成功")else:print("文件已存在") except:print("爬取失敗")

2.信息提取之Beautiful Soup庫入門

Beautiful Soup庫安裝

pip install beautifulsoup4

測試:

import requests r = requests.get("http://python123.io/ws/demo.html") demo = r.text form bs4 import BeautifulSoup #從bs4中引入BeautifulSoup類 soup = BeautifulSoup(demo, "html.parser")

Beautiful Soup庫是解析、遍歷、維護“標簽樹”的功能庫

Beautiful Soup庫的基本元素

Beautiful Soup庫的引用

Beautiful Soup庫,也叫beautifulsoup4或bs4.

from bs4 import BeautifulSoup soup = BeautifulSoup(demo,"html.parser")

Beautiful Soup類的基本元素

基本元素說明
Tag標簽,最基本的信息組織單元,分別用<>和</>標明開頭和結尾
Name標簽的名字,

的名字是’p’,格式:.name
Attributes標簽的屬性,字典形式組織,格式:.attrs
NavigableString標簽內非屬性字符串,<>…</>中字符串,格式:.string
Comment標簽內字符串的注釋部分,一種特殊的Comment類型

基于bs4庫的HTML內容遍歷方法

下行遍歷

屬性說明
.contents(列表類型)子節點的列表,將所有兒子節點存入列表
.children子節點的迭代類型,與.contents類似,用于循環遍歷兒子節點
.descendants子孫節點的迭代類型,包含所有子孫節點,用于循環遍歷
#遍歷兒子節點 for child in soup.body.childrenprint(child) #遍歷子孫節點 for child in soup.body.descendantsprint(child)

上行遍歷

屬性說明
.parent節點的父親標簽
.parents節點先輩標簽的迭代類型,用于循環遍歷先輩節點
soup = BeautifulSoup(demo,"html.parser") for parent in soup.a.parents:if parent is None:print(parent)else:print(parent.name) #輸出結果 #p #body #html #[document]

平行遍歷

平行遍歷發生在同一個父節點下的各節點間。

下一個獲取的可能是字符串類型,不一定是下一個節點。

屬性說明
.next_sibling返回按照HTML文本順序的下一個平行節點標簽
.previous_sibling返回按照HTML文本順序的上一個平行節點標簽
.next_siblings迭代類型,返回按照HTML文本順序的后續所有平行節點標簽
.previous_siblings迭代類型,返回按照HTML文本順序的前續所有平行節點標簽
#遍歷后續節點 for sibling in soup.a.next_siblingsprint(sibling) #遍歷前續節點 for sibling in soup.a.previous_siblingsprint(sibling)

基于bs4庫的HTML格式化和編碼

格式化方法:.prettify()

soup = BeautifulSoup(demo,"html.parser") print(soup.a.prettify())

編碼:默認utf-8

soup = BeautifulSoup("<p>中文</p>","html.parser") soup.p.string #'中文' print(soup.p.prettify()) #<p> # 中文 #</p>

3.信息組織與提取

信息標記的三種形式

標記后的信息可形成信息組織結構,增加了信息的維度;

標記后的信息可用于通信、存儲和展示;

標記的結構和信息一樣具有重要價值;

標記后的信息有利于程序的理解和運用。

XML: eXtensible Matkup Language

最早的通用信息標記語言,可擴展性好,但繁瑣。

用于Internet上的信息交互和傳遞。

<name>...</name> <name/> <!-- -->

JSON: JavaScript Object Notation

信息有類型,適合程序處理(js),較XML簡潔。

用于移動應用云端和節點的信息通信,無注釋。

#有類型的鍵值對表示信息的標記形式 "key":"value" "key":["value1","value2"] "key":{"subkey":"subvalue"}

YAMl: YAML Ain’t Markup Language

信息無類型,文本信息比例最高,可讀性好。

用于各類系統的配置文件,有注釋易讀。

#無類型的鍵值對表示信息的標記形式 key : "value" key : #comment -value1 -value2 key :subkey : subvalue

信息提取的一般方法

方法一:完整解析信息的標記形式,再提取關鍵信息。

XML JSON YAML

需要標記解析器,例如bs4庫的標簽樹遍歷。

優點:信息解析準確

缺點:提取過程繁瑣,過程慢

方法二:無視標記形式,直接搜索關鍵信息

搜索

對信息的文本查找函數即可。

優點:提取過程簡潔,速度較快

缺點:提取過程準確性與信息內容相關

融合方法:結合形式解析與搜索方法,提取關鍵信息

XML JSON YAML 搜索

需要標記解析器及文本查找函數。

實例:提取HTML中所有URL鏈接

思路: 1. 搜索到所有標簽

? 2.解析標簽格式,提取href后的鏈接內容

form bs4 import BeautifulSoup soup = BeautifulSoup(demo,"html.parser") for link in soup.find_all('a'):print(link.get('href'))

基于bs4庫的HTML內容查找方法

方法說明
<>.find_all(name,attrs,recursive,string,**kwargs)返回一個列表類型,存儲查找的結果

簡寫形式:(…) 等價于 .find_all(…)

#name:對標簽名稱的檢索字符串 soup.find_all('a') soup.find_all(['a', 'b']) soup.find_all(True) #返回soup的所有標簽信息 for tag in soup.find_all(True):print(tag.name) #html head title body p b p a a #輸出所有b開頭的標簽,包括b和body #引入正則表達式庫 import re for tag in soup.find_all(re.compile('b')):print(tag.name) #body b#attrs:對標簽屬性值的檢索字符串,可標注屬性檢索 soup.find_all('p', 'course') soup.find_all(id='link1') import re soup.find_all(id=re.compile('link'))#recursive:是否對子孫全部檢索,默認為True soup.find_all('p', recursive = False)#string:<>...</>字符串區域的檢索字符串 soup.find_all(string = "Basic Python") import re soup.find_all(string = re.compile('Python')) #簡寫形式:soup(..) = soup.find_all(..)

拓展方法:參數同.find_all()

方法說明
<>.find()搜索且只返回一個結果,字符串類型
<>.find_parents()在先輩節點中搜索,返回列表類型
<>.find_parent()在先輩節點中返回一個結果,字符串類型
<>.find_next_siblings()在后續平行節點中搜索,返回列表類型
<>.find_next_sibling()在后續平行節點中返回一個結果,字符串類型
<>.find_previous_siblings()在前續平行節點中搜索,返回列表類型
<>.find_previous_sibling()在前續平行節點中返回一個結果,字符串類型

4.信息提取實例

中國大學排名定向爬蟲

功能描述:

? 輸入:大學排名URL鏈接

? 輸出:大學排名信息的屏幕輸出(排名,大學名稱,總分)

? 技術路線:requests-bs4

? 定向爬蟲:僅對輸入URL進行爬取,不拓展爬取

程序的結構設計:

? 步驟1:從網絡上獲取大學排名網頁內容

? getHTMLText()

? 步驟2:提取網頁內容中信息到合適的數據結構

? fillUnivList()

? 步驟3:利用數據結構展示并輸出結果

? printUnivList()

初步代碼編寫

import requests from bs4 import BeautifulSoup import bs4def getHTMLText(url):try:r = requests.get(url, timeout= 30)r.raise_for_status()r.encoding = r.apparent_encodingreturn r.textexcept:return ""def fillUnivList(ulist, html):soup = BeautifulSoup(html, "html.parser")for tr in soup.find('tbody').children:if isinstance(tr, bs4.element.Tag):tds = tr('td')ulist.append([tds[0].string, tds[1].string, tds[3].string])def printUnivList(ulist, num):print("{:^10}\t{:^6}\t{:^10}".format("排名", "學校名稱", "分數"))for i in range(num):u = ulist[i]print("{:^10}\t{:^6}\t{:^10}".format(u[0], u[1], u[2]))def main():uinfo = []url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'html = getHTMLText(url)fillUnivList(uinfo,html)printUnivList(uinfo,20) #20 univs main()

中文輸出對齊問題

當輸出中文的寬度不夠時,系統會采用西文字符填充,導致對齊出現問題。

可以使用中文空格chr(12288)填充解決。

<填充>:用于填充的單個字符

<對齊>:<左對齊 >右對齊 ^居中對齊

<寬度>:槽的設定輸出寬度

,:數字的千位分隔符適用于整數和浮點數

<精度>:浮點數小數部分的精度或字符串的最大輸出長度

<類型>:整數類型b,c,d,o,x,X浮點數類型e,E,f,%

代碼優化

import requests from bs4 import BeautifulSoup import bs4def getHTMLText(url):try:r = requests.get(url, timeout= 30)r.raise_for_status()r.encoding = r.apparent_encodingreturn r.textexcept:return ""def fillUnivList(ulist, html):soup = BeautifulSoup(html, "html.parser")for tr in soup.find('tbody').children:if isinstance(tr, bs4.element.Tag):tds = tr('td')ulist.append([tds[0].string, tds[1].string, tds[3].string])def printUnivList(ulist, num):tplt = "{0:^10}\t{1:{3}^10}\t{2:^10}"print(tplt.format("排名", "學校名稱", "分數",chr(12288)))for i in range(num):u = ulist[i]print(tplt.format(u[0], u[1], u[2],chr(12288)))def main():uinfo = []url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'html = getHTMLText(url)fillUnivList(uinfo,html)printUnivList(uinfo,20) #20 univs main()

5.實戰之Re庫入門

正則表達式

  • 通用的字符串表達框架
  • 簡介表達一組字符串的表達式
  • 針對字符串表達“簡潔”和“特征”思想的工具
  • 判斷某字符串的特征歸屬

正則表達式的語法

操作符說明實例
.表示任何單個字符
[ ]字符集,對單個字符給出取值范圍[abc]表達式a、b、c,[a-z]表示a到z單個字符
[^ ]非字符集,對單個字符給出排除范圍[^abc]表示非a或b或c的單個字符
*前一個字符0次或無限次擴展abc* 表示 ab、abc、abcc、abccc等
+前一個字符1次或無限次擴展abc+ 表示 abc、abcc、abccc等
?前一個字符0次或1次擴展abc?表示 ab、abc
|左右表達式任意一個abc|def 表示 abc 、def
{m}擴展前一個字符m次ab{2}c表示abbc
{m,n}擴展前一個字符m至n次(含n)ab{1,2}c表示abc、abbc
^匹配字符串開頭^abc表示abc且在一個字符串的開頭
$匹配字符串結尾abc$表示abc且在一個字符串的結尾
( )分組標記,內部只能使用|操作符(abc)表示abc,{abc|def}表示abc、def
\d數字,等價于[0-9]
\w單詞字符,等價于[A-Za-z0-9_]

經典正則表達式實例

正則表達式說明
^[A-Za-z]+$由26個字母組成的字符串
^[A-Za-z0-9]+$由26個字母和數字組成的字符串
^-?\d+$整數形式的字符串
^[0-9]*[1-9][0-9]*$正整數形式的字符串
[1-9]\d{5}中國境內郵政編碼,6位
[\u4e00-\u9fa5]匹配中文字符
\d{3}-\d{8}|\d{4}-\d{7}國內電話號碼

Re庫的基本使用

Re庫是Python的標準庫,主要用于字符串匹配。

正則表達式的表示類型

raw string類型(原生字符串類型),是不包含轉義符\的字符串

re庫采用raw string類型表示正則表達式,表示為:r’text’

例如:r'[1-9]\d{5}'

? r'\d{3}-\d{8}|\d{4}-\d{7}'

Re庫主要功能函數

函數說明
re.search()在一個字符串中搜索匹配正則表達式的第一個位置,返回match對象
re.match()從一個字符串的開始位置起匹配正則表達式,返回match對象
re.findall()搜索字符串,以列表類型返回全部能匹配的子串
re.split()將一個字符串按照正則表達式匹配結果進行分割,返回列表類型
re.finditer()搜索字符串,返回一個匹配結果的迭代類型,每個迭代元素是match對象
re.sub()在一個字符串中替換所有匹配正則表達式的子串,返回替換后的字符串

re.search(pattern,string,flags=0)

re.search(pattern,string,flags=0)

  • 在一個字符串中搜索匹配正則表達式的第一個位置,返回match對象;

    • pattern:正則表達式的字符串或原生字符串表示;

    • string:待匹配字符串;

    • flags:正則表達式使用時的控制標記;

      常用標記說明
      re.I|re.IGNORECASE忽略正則表達式的大小寫,[A-Z]能匹配小寫字符
      re.M|re.MUTILINE正則表達式中的^操作符能夠將給定字符串的每行當做匹配開始
      re.S|re.DOTILL正則表達式中的.操作符能夠匹配所有字符,默認匹配除換行符外的所有字符

例子:

import re match = re.search(r'[1-9]\d{5}','BIT 100081') if match:print(match.group(0)) #'100081'

re.match(pattern,string,flags=0)

re.match(pattern,string,flags=0)

  • 從一個字符串的開始位置起匹配正則表達式,返回match對象
    • pattern:正則表達式的字符串或原生字符串表示;
    • string:待匹配字符串;
    • flags:正則表達式使用時的控制標記;

例子:

import re match = re.match(r'[1-9]\d{5}','BIT 100081') if match:print(match.group(0)) #NULL match = re.match(r'[1-9]\d{5}','100081 BIT') if match:print(match.group(0)) #'100081'

re.findall(pattern,string,flags=0)

re.findall(pattern,string,flags=0)

  • 搜索字符串,以列表類型返回全部能匹配的子串
    • pattern:正則表達式的字符串或原生字符串表示;
    • string:待匹配字符串;
    • flags:正則表達式使用時的控制標記;

例子:

import re ls = re.findall(r'[1-9]\d{5}', 'BIT100081 TSU100084') print(ls) #['100081', '100084']

re.split(pattern,string,maxsplit=0,flags=0)

re.split(pattern,string,flags=0)

  • 將一個字符串按照正則表達式匹配結果進行分割,返回列表類型
    • pattern:正則表達式的字符串或原生字符串表示;
    • string:待匹配字符串;
    • maxsplit:最大分割數,剩余部分作為最后一個元素輸出;
    • flags:正則表達式使用時的控制標記;

例子:

import re ls = re.split(r'[1-9]\d{5}', 'BIT100081 TSU100084') print(ls) #['BIT', ' TSU', ''] ls2 = re.split(r'[1-9]\d{5}', 'BIT100081 TSU100084', maxsplit=1) print(ls2) #['BIT', ' TSU10084']

re.finditer(pattern,string,flags=0)

re.finditer(pattern,string,flags=0)

  • 搜索字符串,返回一個匹配結果的迭代類型,每個迭代元素都是match對象
    • pattern:正則表達式的字符串或原生字符串表示;
    • string:待匹配字符串;
    • flags:正則表達式使用時的控制標記;

例子:

import re for m in re.finditer(r'[1-9]\d{5}', 'BIT100081 TSU100084'):if m:print(m.group(0)) #100081 100084

re.sub(pattern,repl,string,count=0,flags=0)

re.sub(pattern,repl,string,count=0,flags=0)

  • 在一個字符串中替換所有匹配正則表達式的子串,并返回替換后的字符串
    • pattern:正則表達式的字符串或原生字符串表示;
    • repl:替換匹配字符串的字符串;
    • string:待匹配字符串;
    • count:匹配的最大替換次數
    • flags:正則表達式使用時的控制標記;

例子:

import re rst = re.sub(r'[1-9]\d{5}', ':zipcode', 'BIT 100081,TSU 100084') print(rst) # 'BIT :zipcode TSU :zipcode'

Re庫的另一種用法

編譯后的對象擁有的方法和re庫主要功能函數相同

#函數式用法:一次性操作 rst = re.search(r'[1-9]\d{5}', 'BIT 100081')#面向對象用法:編譯后的多次操作 pat = re.compile(r'[1-9]\d{5}') rst = pat.search('BIT 100081')

re.compile(pattern,flags=0)

  • 將正則表達式的字符串形式編譯成正則表達式對象
    • pattern:正則表達式的字符串或原生字符串表示;
    • flags:正則表達式使用時的控制標記;
regex = re.compile(r'[1-9]\d{5}')

Re庫的match對象

import re match = re.search(r'[1-9]\d{5}','BIT 100081') if match:print(match.group(0)) # '100081' print(type(match)) # <class 're.Match'>

Match對象的屬性

屬性說明
.string待匹配的文本
.re匹配時使用的pattern對象(正則表達式)
.pos正則表達式搜索文本的開始位置
.endpos正則表達式搜索文本的結束位置

Match對象的方法

方法說明
.group(0)獲得匹配后的字符串
.start()匹配字符串在原始字符串的開始位置
.end()匹配字符串在原始字符串的結束位置
.span()返回(.start(),.end())
import re m = re.search(r'[1-9]\d{5}', 'BIT100081 TSU100084') print(m.string) # BIT100081 TSU100084 print(m.re) # re.compile('[1-9]\\d{5}') print(m.pos) # 0 print(m.endpos) # 19 print(m.group(0)) # '100081' 返回的是第一次匹配的結果,獲取所有使用re.finditer()方法 print(m.start()) # 3 print(m.end()) # 9 print(m.span()) # (3, 9)

Re庫的貪婪匹配和最小匹配

Re庫默認采用貪婪匹配,即輸出匹配最長的子串。

import re match = re.search(r'PY.*N', 'PYANBNCNDN') print(match.group(0)) # PYANBNCNDN

最小匹配方法:

import re match = re.search(r'PY.*?N', 'PYANBNCNDN') print(match.group(0)) # PYAN

最小匹配操作符

操作符說明
*?前一個字符0次或無限次擴展,最小匹配
+?前一個字符1次或無限次擴展,最小匹配
??前一個字符0次或1次擴展,最小匹配
{m,n}?擴展前一個字符m至n次(含n),最小匹配

Re庫實例之淘寶商品比價定向爬蟲

功能描述:

  • 目標:獲取淘寶搜索頁面的信息,提取其中的商品名稱和價格
  • 理解:
    • 淘寶的搜索接口
    • 翻頁的處理
  • 技術路線:requests-re

程序的結構設計:

  • 步驟1:提交商品搜索請求,循環獲取頁面
  • 步驟2:對于每個頁面,提取商品的名稱和價格信息
  • 步驟3:將信息輸出到屏幕上
import requests import redef getHTMLText(url):#瀏覽器請求頭中的User-Agent,代表當前請求的用戶代理信息(下方有獲取方式)headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'}try:#瀏覽器請求頭中的cookie,包含自己賬號的登錄信息(下方有獲取方式)coo = ''cookies = {}for line in coo.split(';'): #瀏覽器偽裝name, value = line.strip().split('=', 1)cookies[name] = valuer = requests.get(url, cookies = cookies, headers=headers, timeout = 30)r.raise_for_status()r.encoding = r.apparent_encodingreturn r.textexcept:return ""#解析請求到的頁面,提取出相關商品的價格和名稱 def parsePage(ilt, html):try:plt = re.findall(r'\"view_price\"\:\"[\d\.]*\"', html)tlt = re.findall(r'\"raw_title\"\:\".*?\"', html)for i in range(len(plt)):price = eval(plt[i].split(':')[1])title = eval(tlt[i].split(':')[1])ilt.append([price, title])except:print("")def printGoodsList(ilt):tplt = "{:4}\t{:8}\t{:16}"print(tplt.format("序號", "價格", "商品名稱"))count = 0for g in ilt:count = count + 1print(tplt.format(count, g[0], g[1]))def main():goods = '書包'depth = 2 #爬取深度,2表示爬取兩頁數據start_url = 'https://s.taobao.com/search?q=' + goodsinfoList = []for i in range(depth):try:url = start_url + '&s=' + str(44*i)html = getHTMLText(url)parsePage(infoList, html)except:continueprintGoodsList(infoList)main()

? 需要注意的是,淘寶網站本身有反爬蟲機制,所以在使用requests庫的get()方法爬取網頁信息時,需要加入本地的cookie信息,否則淘寶返回的是一個錯誤頁面,無法獲取數據。

? 代碼中的coo變量中需要自己添加瀏覽器中的cookie信息,具體做法是在瀏覽器中按F12,在出現的窗口中進入network(網絡)內,搜索“書包”,然后找到請求的url(一般是第一個),點擊請求在右側header(消息頭)中找到Request Header(請求頭),在請求頭中找到User-Agent和cookie字段,放到代碼相應位置即可。

Re庫實例之股票數據定向爬蟲

功能描述:

  • 目標:獲取上交所和深交所所有股票的名稱和交易信息
  • 輸出:保存到文件中
  • 技術路線:requests-bs4-re

候選數據網站的選擇:

  • 新浪股票:https://finance.sina.com.cn/stock/
  • 百度股票:https://gupiao.baidu.com/stock/
  • 選取原則:股票信息靜態存在于HTML頁面中,非js代碼生成,沒有Robots協議限制。

程序的結構設計

  • 步驟1:從東方財富網獲取股票列表
  • 步驟2:根據股票列表逐個到百度股票獲取個股信息
  • 步驟3:將結果存儲到文件

初步代碼編寫(error)

import requests from bs4 import BeautifulSoup import traceback import redef getHTMLText(url):try:r = requests.get(url)r.raise_for_status()r.encoding = r.apparent_encodingreturn r.textexcept:return ""def getStockList(lst, stockURL):html = getHTMLText(stockURL)soup = BeautifulSoup(html, 'html.parser') a = soup.find_all('a')for i in a:try:href = i.attrs['href']lst.append(re.findall(r"[s][hz]\d{6}", href)[0])except:continuedef getStockInfo(lst, stockURL, fpath):for stock in lst:url = stockURL + stock + ".html"html = getHTMLText(url)try:if html=="":continueinfoDict = {}soup = BeautifulSoup(html, 'html.parser')stockInfo = soup.find('div',attrs={'class':'stock-bets'})name = stockInfo.find_all(attrs={'class':'bets-name'})[0]infoDict.update({'股票名稱': name.text.split()[0]})keyList = stockInfo.find_all('dt')valueList = stockInfo.find_all('dd')for i in range(len(keyList)):key = keyList[i].textval = valueList[i].textinfoDict[key] = valwith open(fpath, 'a', encoding='utf-8') as f:f.write( str(infoDict) + '\n' )except:traceback.print_exc()continuedef main():stock_list_url = 'https://quote.eastmoney.com/stocklist.html'stock_info_url = 'https://gupiao.baidu.com/stock/'output_file = 'D:/BaiduStockInfo.txt'slist=[]getStockList(slist, stock_list_url)getStockInfo(slist, stock_info_url, output_file)main()

代碼優化(error)

速度提高:編碼識別的優化

import requests from bs4 import BeautifulSoup import traceback import redef getHTMLText(url, code="utf-8"):try:r = requests.get(url)r.raise_for_status()r.encoding = codereturn r.textexcept:return ""def getStockList(lst, stockURL):html = getHTMLText(stockURL, "GB2312")soup = BeautifulSoup(html, 'html.parser') a = soup.find_all('a')for i in a:try:href = i.attrs['href']lst.append(re.findall(r"[s][hz]\d{6}", href)[0])except:continuedef getStockInfo(lst, stockURL, fpath):count = 0for stock in lst:url = stockURL + stock + ".html"html = getHTMLText(url)try:if html=="":continueinfoDict = {}soup = BeautifulSoup(html, 'html.parser')stockInfo = soup.find('div',attrs={'class':'stock-bets'})name = stockInfo.find_all(attrs={'class':'bets-name'})[0]infoDict.update({'股票名稱': name.text.split()[0]})keyList = stockInfo.find_all('dt')valueList = stockInfo.find_all('dd')for i in range(len(keyList)):key = keyList[i].textval = valueList[i].textinfoDict[key] = valwith open(fpath, 'a', encoding='utf-8') as f:f.write( str(infoDict) + '\n' )count = count + 1print("\r當前進度: {:.2f}%".format(count*100/len(lst)),end="")except:count = count + 1print("\r當前進度: {:.2f}%".format(count*100/len(lst)),end="")continuedef main():stock_list_url = 'https://quote.eastmoney.com/stocklist.html'stock_info_url = 'https://gupiao.baidu.com/stock/'output_file = 'D:/BaiduStockInfo.txt'slist=[]getStockList(slist, stock_list_url)getStockInfo(slist, stock_info_url, output_file)main()

測試成功代碼

由于東方財富網鏈接訪問時出現錯誤,所以更換了一個新的網站去獲取股票列表,具體代碼如下:

import requests import re import traceback from bs4 import BeautifulSoup import bs4def getHTMLText(url):try:r = requests.get(url, timeout=30)r.raise_for_status()r.encoding = r.apparent_encodingreturn r.textexcept:return""def getStockList(lst, stockListURL):html = getHTMLText(stockListURL)soup = BeautifulSoup(html, 'html.parser')a = soup.find_all('a')lst = []for i in a:try:href = i.attrs['href']lst.append(re.findall(r"[S][HZ]\d{6}", href)[0])except:continuelst = [item.lower() for item in lst] # 將爬取信息轉換小寫return lstdef getStockInfo(lst, stockInfoURL, fpath):count = 0for stock in lst:url = stockInfoURL + stock + ".html"html = getHTMLText(url)try:if html == "":continueinfoDict = {}soup = BeautifulSoup(html, 'html.parser')stockInfo = soup.find('div', attrs={'class': 'stock-bets'})if isinstance(stockInfo, bs4.element.Tag): # 判斷類型name = stockInfo.find_all(attrs={'class': 'bets-name'})[0]infoDict.update({'股票名稱': name.text.split('\n')[1].replace(' ','')})keylist = stockInfo.find_all('dt')valuelist = stockInfo.find_all('dd')for i in range(len(keylist)):key = keylist[i].textval = valuelist[i].textinfoDict[key] = valwith open(fpath, 'a', encoding='utf-8') as f:f.write(str(infoDict) + '\n')count = count + 1print("\r當前速度:{:.2f}%".format(count*100/len(lst)), end="")except:count = count + 1print("\r當前速度:{:.2f}%".format(count*100/len(lst)), end="")traceback.print_exc()continuedef main():fpath = 'D://gupiao.txt'stock_list_url = 'https://hq.gucheng.com/gpdmylb.html'stock_info_url = 'https://gupiao.baidu.com/stock/'slist = []list = getStockList(slist, stock_list_url)getStockInfo(list, stock_info_url, fpath)main()

6.爬蟲框架-Scrapy

爬蟲框架:是實現爬蟲功能的一個軟件結構和功能組件集合。

爬蟲框架是一個半成品,能夠幫助用戶實現專業網絡爬蟲。

安裝Scrapy

pip install scrapy #驗證 scrapy -h

遇到錯誤

building 'twisted.test.raiser' extensionerror: Microsoft Visual C++ 14.0 is required. Get it with "Microsoft Visual C++ Build Tools": https://visualstudio.microsoft.com/downloads/

解決方案

  • 查看python版本及位數

    C:\Users\ASUS>python Python 3.7.2 (tags/v3.7.2:9a3ffc0492, Dec 23 2018, 23:09:28) [MSC v.1916 64 bit (AMD64)] on win32 Type "help", "copyright", "credits" or "license" for more information.

    可知,python版本為3.7.2, 64位

  • 下載Twisted

    到 http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted 下載twisted對應版本的whl文件;
    根據版本應下載Twisted?17.9.0?cp37?cp37m?win_amd64.whl

    注意:cp后面是python版本,amd64代表64位,32位的下載32位對應的文件。

  • 安裝Twisted

    python -m pip install D:\download\Twisted?19.2.0?cp37?cp37m?win_amd64.whl
  • 安裝Scrapy

    python -m pip install scrapy
  • Scrapy爬蟲框架解析

  • Engine:不需要用戶修改

    • 控制所有模塊之間的數據流

    • 根據條件觸發事件

  • Downloader:不需要用戶修改

    • 根據請求下載網頁
  • Scheduler:不需要用戶修改

    • 對所有爬取請求進行調度管理
  • Downloader Middleware:用戶可編寫配置代碼

    • 目的:實施Engine、Scheduler和Downloader之間進行用戶可配置的控制
    • 功能:修改、丟棄、新增請求或響應
  • Spiders:需要用戶編寫配置代碼

    • 解析Downloader返回的響應(Response)
    • 產生爬取項(scraped item)
    • 產生額外的爬取請求(Request)
  • Item Pipelines:需要用戶編寫配置代碼

    • 以流水線方式處理Spider產生的爬取項
    • 由一組操作順序組成,類似流水線,每個操作是一個Item Pipeline類型
    • 可能操作包括:清理、檢驗、和查重爬取項中的HTML數據、將數據存儲到數據庫
  • Spider Middleware:用戶可以編寫配置代碼

    • 目的:對請求和爬取項的再處理
    • 功能:修改、丟棄、新增請求或爬取項
  • requests vs. Scrapy

    • 相同點

      • 兩者都可以進行頁面請求和爬取,Python爬蟲的兩個重要技術路線
      • 兩者可用性都好,文檔豐富,入門簡單
      • 兩者都沒有處理js、提交表單、應對驗證碼等功能(可擴展)
    • 不同點

      requestsScrapy
      頁面級爬蟲網站級爬蟲
      功能庫框架
      并發性考慮不足,性能較差并發性好,性能較高
      重點在于頁面下載重點在于爬蟲結構
      定制靈活一般定制靈活,深度定制困難
      上手十分簡單入門稍難

      Scrapy爬蟲的常用命令

    Scrapy命令行

    ? Scrapy是為持續運行設計的專業爬蟲框架,提供操作的Scrapy命令行

    命令說明格式
    startproject創建一個新工程scrapy startproject [dir]
    genspider創建一個爬蟲scrapy genspider [options]
    settings獲得爬蟲配置信息scrapy setting [options]
    crawl運行一個爬蟲scrapy crawl
    list列出工程中所有爬蟲scrapy list
    shell啟動URL調試命令行scrapy shell [url]

    Scrapy框架的基本使用

    步驟1:建立一個Scrapy爬蟲工程

    #打開命令提示符-win+r 輸入cmd #進入存放工程的目錄 D:\>cd demo D:\demo> #建立一個工程,工程名python123demo D:\demo>scrapy startproject python123demo New Scrapy project 'python123demo', using template directory 'd:\program files\python\lib\site-packages\scrapy\templates\project', created in:D:\demo\python123demoYou can start your first spider with:cd python123demoscrapy genspider example example.com D:\demo>

    生成的目錄工程介紹:

    python123demo/ ----------------> 外層目錄

    ? scrapy.cfg ---------> 部署Scrapy爬蟲的配置文件

    ? python123demo/ ---------> Scrapy框架的用戶自定義Python代碼

    ? __init__.py ----> 初始化腳本

    ? items.py ----> Items代碼模板(繼承類)

    ? middlewares.py ----> Middlewares代碼模板(繼承類)

    ? pipelines.py ----> Pipelines代碼模板(繼承類)

    ? settings.py ----> Scrapy爬蟲的配置文件

    ? spiders/ ----> Spiders代碼模板目錄(繼承類)

    spiders/ ----------------> Spiders代碼模板目錄(繼承類)

    ? __init__.py --------> 初始文件,無需修改

    ? __pycache__/ --------> 緩存目錄,無需修改

    步驟2:在工程中產生一個Scrapy爬蟲

    #切換到工程目錄 D:\demo>cd python123demo #產生一個scrapy爬蟲 D:\demo\python123demo>scrapy genspider demo python123.io Created spider 'demo' using template 'basic' in module:python123demo.spiders.demoD:\demo\python123demo>

    步驟3:配置產生的spider爬蟲

    修改D:\demo\python123demo\python123demo\spiders\demo.py

    # -*- coding: utf-8 -*- import scrapyclass DemoSpider(scrapy.Spider):name = 'demo' # allowed_domains = ['python123.io']start_urls = ['http://python123.io/ws/demo.html']def parse(self, response):fname = response.url.split('/')[-1]with open(fname, 'wb') as f:f.write(response.body)self.log('Save file %s.' % name)

    完整版代碼編寫方式

    import scrapyclass DemoSpider(scrapy.Spider):name = "demo"def start_requests(self):urls = ['http://python123.io/ws/demo.html']for url in urls:yield scrapy.Requests(url=url, callback=self.parse)def parse(self, response):fname = response.url.split('/')[-1]with open(fname, 'wb') as f:f.write(response.body)self.log('Saved file %s.' % fname)

    步驟4:運行爬蟲,獲取網頁

    #輸入運行命令 scrapy crawl D:\demo\python123demo>scrapy crawl demo

    可能出現的錯誤

    ModuleNotFoundError: No module named 'win32api'

    解決方法

  • 到 https://pypi.org/project/pypiwin32/#files 下載py3版本的pypiwin32-223-py3-none-any.whl文件;

  • 安裝pypiwin32-223-py3-none-any.whl

    pip install D:\download\pypiwin32-223-py3-none-any.whl
  • 再次在工程目錄下運行爬蟲

    scrapy crawl demo
  • yield關鍵字的使用

    • yield<----------------------->生成器
      • 生成器是一個不斷產生值的函數;
      • 包含yield語句的函數是一個生成器;
      • 生成器每次產生一個值(yield語句),函數會被凍結,被喚醒后再產生一個值;

    實例:

    def gen(n):for i in range(n):yield i**2 #產生小于n的所有2的平方值 for i in gen(5):print(i, " ", end="") #0 1 4 9 16 #普通寫法 def square(n):ls = [i**2 for i in range(n)]return ls for i in square(5):print(i, " ", end="") #0 1 4 9 16

    為何要有生成器?

    • 生成器比一次列出所有內容的優勢
      • 更節省存儲空間
      • 響應更迅速
      • 使用更靈活

    Scrapy爬蟲的使用步驟

    • 步驟1:創建一個工程和Spider模板;
    • 步驟2:編寫Spider;
    • 步驟3:編寫Item Pipeline
    • 步驟4:優化配置策略

    Scrapy爬蟲的數據類型

    Request類

    class scrapy.http.Request()

    • Request對象表示一個HTTP請求
    • 由Spiders生成,由Downloader執行
    屬性或方法說明
    .urlRequest對應的請求URL地址
    .method對應的請求方法,’GET‘ ’POST‘等
    .headers字典類型風格的請求頭
    .body請求內容主體,字符串類型
    .meta用戶添加的擴展信息,在Scrapy內部模塊間傳遞信息使用
    .copy()復制該請求

    Response類

    class scrapy.http.Response()

    • Response對象表示一個HTTP響應
    • 由Downloader生成,由Spider處理
    屬性或方法說明
    .urlResponse對應的URL地址
    .statusHTTP狀態碼,默認是200
    .headersResponse對應的頭部信息
    .bodyResponse對應的內容信息,字符串類型
    .flags一組標記
    .request產生Response類型對應的Request對象
    .copy()復制該響應

    Item類

    class scrapy.item.Item()

    • Item對象表示一個從HTML頁面中提取的信息內容
    • 由Spider生成,由Item Pipeline處理
    • Item類似字典類型,可以按照字典類型操作

    CSS Selector的基本使用

    .css('a::attr(href)').extract()

    CSS Selector由W3C組織維護并規范。

    股票數據Scrapy爬蟲實例

    功能描述:

    • 技術路線:scrapy
    • 目標:獲取上交所和深交所所有股票的名稱和交易信息
    • 輸出:保存到文件中

    實例編寫

    • 步驟1:首先進入命令提示符建立工程和Spider模板
    scrapy startproject BaiduStocks cd BaiduStocks scrapy genspider stocks baidu.com #進一步修改spiders/stocks.py文件
    • 步驟2:編寫Spider
      • 配置stock.py文件
      • 修改對返回頁面的處理
      • 修改對新增URL爬取請求的處理

    打開spider.stocks.py文件

    # -*- coding: utf-8 -*- import scrapy import reclass StocksSpider(scrapy.Spider):name = "stocks"start_urls = ['https://quote.eastmoney.com/stocklist.html']def parse(self, response):for href in response.css('a::attr(href)').extract():try:stock = re.findall(r"[s][hz]\d{6}", href)[0]url = 'https://gupiao.baidu.com/stock/' + stock + '.html'yield scrapy.Request(url, callback=self.parse_stock)except:continuedef parse_stock(self, response):infoDict = {}stockInfo = response.css('.stock-bets')name = stockInfo.css('.bets-name').extract()[0]keyList = stockInfo.css('dt').extract()valueList = stockInfo.css('dd').extract()for i in range(len(keyList)):key = re.findall(r'>.*</dt>', keyList[i])[0][1:-5]try:val = re.findall(r'\d+\.?.*</dd>', valueList[i])[0][0:-5]except:val = '--'infoDict[key]=valinfoDict.update({'股票名稱': re.findall('\s.*\(',name)[0].split()[0] + \re.findall('\>.*\<', name)[0][1:-1]})yield infoDict
    • 步驟3:編寫Pipelines
      • 配置pipelines.py文件
      • 定義對爬取項(Scrapy Item)的處理類
      • 配置ITEM_PIPELINES選項

    pipelines.py

    # -*- coding: utf-8 -*-# Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: https://doc.scrapy.org/en/latest/topics/item-pipeline.htmlclass BaidustocksPipeline(object):def process_item(self, item, spider):return itemclass BaidustocksInfoPipeline(object):def open_spider(self, spider):self.f = open('BaiduStockInfo.txt', 'w')def close_spider(self, spider):self.f.close()def process_item(self, item, spider):try:line = str(dict(item)) + '\n'self.f.write(line)except:passreturn item

    setting.py

    # Configure item pipelines # See https://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = {'BaiduStocks.pipelines.BaidustocksInfoPipeline': 300, }

    配置并發連接選項

    settings.py

    選項說明
    CONCURRENT_REQUESTSDownloader最大并發請求下載數量,默認為32
    CONCURRENT_ITEMSItem Pipeline最大并發ITEM處理數量,默認為100
    CONCURRENT_REQUESTS_PRE_DOMAIN每個目標域名最大的并發請求數量,默認為8
    CONCURRENT_REQUESTS_PRE_IP每個目標IP最大的并發請求數量,默認為0,非0有效

    本篇文章是在中國大學MOOC中北京理工大學嵩天老師教授的Python網絡爬蟲與信息提取的過程中記錄而來。感謝中國大學MOOC平臺及北京理工大學嵩天老師的課程
    來源:中國大學MOOC-北京理工大學-嵩天-Python網絡爬蟲與信息提取

    總結

    以上是生活随笔為你收集整理的Python网络爬虫与信息提取的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    久久精品96 | 国产精品影音先锋 | 国产黄色片网站 | 国产又粗又硬又爽的视频 | 国产一区在线免费 | 国产精品美女久久久网av | 免费av在线播放 | 丁香 婷婷 激情 | 日韩高清av在线 | 久久一视频 | 在线免费视频 你懂得 | 午夜视频在线观看一区二区 | 2019精品手机国产品在线 | 91香蕉视频黄| 在线观看日本韩国电影 | 亚洲国产日韩一区 | 深爱综合网 | 99久高清在线观看视频99精品热在线观看视频 | 久久精品1区2区 | 二区三区在线视频 | 国产高清在线免费 | 国产精品久久三 | av电影在线免费 | 日韩精品中文字幕在线 | 一区二区三区四区五区在线视频 | 久久国产精品免费一区二区三区 | 99久久婷婷国产综合亚洲 | 国产精品一区二区精品视频免费看 | 免费色视频网址 | 国产精品一区二区久久精品爱微奶 | 国产精品入口麻豆www | 久草国产在线观看 | 手机av电影在线观看 | 亚洲黄网站 | 在线之家免费在线观看电影 | 国内精品久久久 | 国产一区二区久久 | 91豆麻精品91久久久久久 | 亚洲色综合 | 最近日本韩国中文字幕 | 日日夜夜天天综合 | 日韩视频在线观看免费 | 欧美性粗大hdvideo | av一级片在线观看 | 波多野结衣视频一区二区 | 99精品一级欧美片免费播放 | www日日夜夜| 精品uu| 夜夜躁狠狠躁日日躁 | 日韩欧美视频在线免费观看 | 国产亚洲小视频 | 黄色大全视频 | 91在线91 | 国产精品原创 | 色就干| .国产精品成人自产拍在线观看6 | 欧美精品久久久久久久亚洲调教 | 中文字幕资源网在线观看 | 国产精品99久久久久久宅男 | 五月婷婷激情综合 | 六月丁香在线视频 | 西西www4444大胆视频 | 亚洲国产精品va在线看黑人动漫 | 国产视频1 | 在线视频日韩欧美 | 日韩av不卡在线 | 国产日韩欧美网站 | 亚洲国产精品电影 | 天天艹天天干天天 | 成人天堂网 | 日韩av看片 | 精品久操 | 久久免费a| 亚洲免费av在线播放 | 午夜免费在线观看 | 久草网在线观看 | 免费黄a大片| 一区免费观看 | 美女视频a美女大全免费下载蜜臀 | 亚洲aⅴ久久精品 | 99精品视频在线看 | 欧美另类成人 | 天天操操操操操操 | 日韩电影一区二区三区在线观看 | 国产乱码精品一区二区蜜臀 | 亚洲黄色免费在线看 | 在线免费观看黄色av | 色视频网站在线观看一=区 a视频免费在线观看 | 激情综合啪 | 99视频在线精品 | 91网在线观看 | 免费高清av在线看 | 99热国产在线中文 | 国产成人精品在线 | 亚洲精品久久久蜜臀下载官网 | 国产高清视频在线免费观看 | 国产精品亚 | 日日摸日日碰 | 久久夜色精品国产欧美一区麻豆 | 日韩视频免费在线观看 | 国产视频精品在线 | 黄色小说在线免费观看 | 涩涩色亚洲一区 | 国产精品美女久久久久久久 | 黄色成人av | 天天综合五月天 | 午夜性盈盈 | 国产精品黄色av | 在线视频一区观看 | 天天在线视频色 | 欧美成人精品三级在线观看播放 | 久久精品中文字幕免费mv | 在线免费av网站 | 国产精品一区二区三区观看 | 日韩免费三级 | 四虎www. | 日韩黄色在线 | 欧美精品一级视频 | 色婷婷狠狠五月综合天色拍 | 免费在线观看亚洲视频 | 久久人人精 | 日韩黄色免费 | 欧美精品国产综合久久 | 久久高清精品 | 天天鲁天天干天天射 | 国产精品18久久久久久久网站 | 六月丁香在线观看 | 欧美 日韩 国产 中文字幕 | 人人插人人看 | 在线观看视频中文字幕 | 99一区二区三区 | 在线观看久 | 国产超碰在线 | 国产精品日韩在线 | 中文字幕日韩免费视频 | 黄色av电影 | 97人人爽人人 | 欧美国产日韩一区二区 | 中文字幕91视频 | 久久国产精品免费观看 | 日韩高清在线观看 | a在线免费 | 成年人电影免费看 | 国产精品资源网 | 四虎免费av | 欧美性生活小视频 | 免费视频久久久久久久 | 国产中文a | 五月婷婷一级片 | 97电影在线观看 | 精品国产亚洲在线 | 在线观看亚洲免费视频 | 91视频久久久 | 天天射天天搞 | 日日夜夜精品免费观看 | 99久久精品无免国产免费 | 欧美日韩中文在线 | 色综合久久88色综合天天免费 | 天天干天天射天天爽 | 天天干人人 | 最新国产精品亚洲 | 四虎影视成人永久免费观看视频 | www.天天综合 | 亚洲永久精品视频 | 国产美女视频免费观看的网站 | 欧美日韩另类在线 | 亚洲精品动漫成人3d无尽在线 | 中中文字幕av | 日本黄色免费电影网站 | 亚洲欧美在线视频免费 | 四虎影视精品永久在线观看 | 亚洲精品色婷婷 | 国产精品小视频网站 | 日日夜夜操av | 在线小视频 | 免费看十八岁美女 | 在线观看不卡的av | 黄色在线免费观看网站 | 国产69精品久久久久99尤 | www黄免费| 天天操婷婷 | 中文字幕视频三区 | 欧美日韩中文国产一区发布 | 日本精品中文字幕在线观看 | 久久激情五月丁香伊人 | 成人va在线观看 | 国产精品久久久久久久久久久久午夜 | av三级在线免费观看 | 黄色大片免费网站 | 久久免费视频观看 | 欧美日一级片 | 国产高清综合 | 日韩高清片 | 欧美一级视频一区 | 日韩中文在线电影 | 91精品国产99久久久久 | 99精品在线看 | 麻豆视频免费播放 | 亚洲精品乱码久久久久v最新版 | 午夜精品麻豆 | 成人午夜电影免费在线观看 | 色婷婷啪啪免费在线电影观看 | 黄色字幕网 | 国产不卡精品 | 国产中文字幕国产 | 99国产情侣在线播放 | 中文字幕在线观看91 | 国产一级电影免费观看 | 在线观看国产永久免费视频 | 日韩三区在线观看 | 国产999视频在线观看 | 午夜色影院 | 色资源二区在线视频 | 久久久久久久久综合 | 免费看黄色毛片 | 一区二区毛片 | 久久精品国产精品亚洲 | 免费看在线看www777 | 网站在线观看日韩 | 国产 日韩 欧美 中文 在线播放 | 久久久久久久久久久久99 | 欧美日韩国产欧美 | 国产免费又爽又刺激在线观看 | 天天摸天天操天天爽 | 欧美日韩在线视频一区 | 国产成人一级 | 国产在线观看免费 | 精品字幕在线 | 久久久91精品国产一区二区精品 | 国产亚洲91 | 久久精品视 | 特级黄色一级 | 国产三级国产精品国产专区50 | 国产在线观看午夜 | 国产精成人品免费观看 | 午夜国产一区二区三区四区 | 99久久99视频只有精品 | 在线视频 区 | 成人av地址 | 偷拍区另类综合在线 | 国产中文字幕一区二区三区 | 亚洲毛片一区二区三区 | 日韩色高清 | 午夜的福利 | 999久久久久久久久久久 | 久久99国产精品自在自在app | 激情深爱.com| 国产精品18videosex性欧美 | 日韩亚洲欧美中文字幕 | 丰满少妇一级 | 国产成人av免费在线观看 | 国产亚洲精品久久久久久久久久久久 | 日日日爽爽爽 | 狠狠色噜噜狠狠 | 91色在线观看 | 欧美日韩成人 | 天堂av最新网址 | 国产专区精品视频 | 国产精品女人久久久久久 | 性日韩欧美在线视频 | 91久久电影| 免费在线观看av的网站 | 久久女同性恋中文字幕 | 日日干av| av中文字幕av | 中文字幕区 | 久久国产欧美日韩 | 久久精品123| 欧美精品久久久久久久久久久 | 亚洲高清国产视频 | 五月婷婷伊人网 | 久久黄色影视 | 91麻豆文化传媒在线观看 | 日日夜夜精品视频 | 色综合狠狠干 | 亚洲另类久久 | 亚洲一区久久久 | 丁香五月亚洲综合在线 | 国产精品一区二区av日韩在线 | 超碰在线观看av.com | www免费在线观看 | 人人艹人人 | 久久99精品热在线观看 | av日韩中文 | 国产丝袜一区二区三区 | 亚洲日本va中文字幕 | 欧美精品一区二区三区一线天视频 | 日韩高清在线不卡 | 99草视频在线观看 | 亚洲国产成人久久 | 久久国产一区二区三区 | 国产精品久久久久久a | 青青视频一区 | 国产高清不卡在线 | 人人爽人人射 | 日本久久电影 | 欧美在线资源 | 日日夜夜精品视频天天综合网 | 黄色软件视频网站 | 97国产大学生情侣酒店的特点 | 九色激情网 | 黄色在线观看免费网站 | www久久国产 | 国产精品久久毛片 | 天天射天天 | 久久人人爽爽人人爽人人片av | 伊色综合久久之综合久久 | 久久美女电影 | 久久午夜色播影院免费高清 | 日韩在线视频一区二区三区 | 国产亚洲精品久久久久动 | 日韩高清av在线 | 亚洲国产精品va在线 | 欧美性生交大片免网 | 99国产情侣在线播放 | 国产无限资源在线观看 | 婷婷在线免费 | 国产中文字幕网 | 精品96久久久久久中文字幕无 | 最近2019年日本中文免费字幕 | 狠狠躁夜夜av | 日日夜夜天天射 | 国产精品毛片久久久久久久 | 亚洲成人蜜桃 | 亚洲电影自拍 | 国产三级午夜理伦三级 | 美女免费电影 | 9i看片成人免费看片 | 日b视频在线观看网址 | 久久精品国产第一区二区三区 | 亚洲欧美国产精品va在线观看 | 在线免费观看的av网站 | 激情五月六月婷婷 | 精品国产欧美一区二区三区不卡 | 久久精品日本啪啪涩涩 | 欧美性生活大片 | 国产色视频123区 | 久久人人97超碰国产公开结果 | 在线天堂日本 | 69热国产视频 | 国产黄色片在线 | 狠狠干在线 | 中文字幕在线播放视频 | 国产精品久久电影网 | 欧美小视频在线 | 日韩午夜电影网 | 精品国产一区二区三区久久久 | 国产成人精品网站 | 久久精品黄 | 国产精品久久久久久久电影 | 国产精品久久久久9999吃药 | 精精国产xxxx视频在线播放 | 综合五月 | 久久黄色影院 | 超碰在线91 | av解说在线 | 欧美日韩亚洲第一页 | 国产一区视频在线播放 | 看片的网址 | 日本久久成人 | 日本精品一区二区三区在线观看 | 天天干天天操天天做 | 国产精品第54页 | 久草在线视频网 | 一区二区三区日韩在线观看 | 久久久久免费观看 | 国产精品成久久久久三级 | www.夜夜操| 日韩av伦理片 | 91超级碰碰 | 中文字幕成人在线观看 | 草久草久 | 精品一区二区三区久久 | 欧美极品xxxx| 最近高清中文在线字幕在线观看 | 9999精品 | 欧美一二三视频 | 中文字幕免费不卡视频 | 波多野结依在线观看 | 黄色精品网站 | 99精品视频免费全部在线 | 99久久电影| 国产999免费视频 | 精品久久福利 | 国产女人40精品一区毛片视频 | 免费在线中文字幕 | 一区二区三区视频 | 精品国产aⅴ一区二区三区 在线直播av | 综合激情网... | 99精品在这里 | 国产精品成人久久久久久久 | 操操操人人 | 婷婷资源站 | 久久精品视频日本 | 久久久www成人免费精品张筱雨 | 手机在线观看国产精品 | 麻豆视频在线观看 | 久香蕉| 五月花婷婷 | 日韩av一区二区三区 | 爱干视频 | 成人免费看黄 | 91av中文字幕 | 国产精品私人影院 | 国产综合精品久久 | 日韩有码中文字幕在线 | 久久99国产精品久久99 | 亚洲一区二区精品 | 欧美一级性生活视频 | 在线看av的网址 | 免费视频久久 | 久久在线免费观看 | 手机在线看a | 在线一二三区 | 最近中文字幕国语免费av | 欧美另类sm图片 | 日本在线观看视频一区 | 日本免费久久高清视频 | 国产小视频91 | 国产精品久久久久久99 | 亚洲综合日韩在线 | 国产一性一爱一乱一交 | 亚洲高清激情 | 青青草国产成人99久久 | а天堂中文最新一区二区三区 | 69视频国产 | 久久久久亚洲精品男人的天堂 | 欧美一区在线观看视频 | 正在播放五月婷婷狠狠干 | 九七视频在线观看 | 欧美日韩不卡一区二区 | 91男人影院 | 日韩精品五月天 | 激情五月伊人 | 午夜三级毛片 | 99热在线网站| 天天干天天上 | 久久久精品99| 免费看av片网站 | 国产一级做a爱片久久毛片a | 六月丁香综合网 | 国产三级视频 | 91麻豆精品国产91久久久久久久久 | 国产一级免费视频 | 日韩午夜av电影 | 黄色aa久久| 中文字幕在线视频网站 | 国产成人精品一区二区在线 | 久久兔费看a级 | 麻豆超碰 | 超碰在线免费97 | 亚洲精品一区二区在线观看 | 在线观看国产区 | 精精国产xxxx视频在线播放 | 欧美一区二区三区在线播放 | 婷婷在线视频 | 久久精品日韩 | 亚洲精品久久久久中文字幕二区 | 在线观看国产v片 | 五月天狠狠操 | 国产一级视屏 | 久久伊人91| 国产一区二区三区网站 | 亚洲成aⅴ人片久久青草影院 | 午夜三级毛片 | 久久成电影 | www.久久久久 | 美女精品久久久 | 一本一本久久a久久精品牛牛影视 | 中文字幕免费高清在线 | 婷婷性综合| 国产高清视频色在线www | 91亚洲欧美激情 | 国产精品毛片久久久久久 | 日韩最新在线视频 | 五月婷婷在线视频观看 | 欧美日韩国产综合一区二区 | 最近免费中文字幕mv在线视频3 | 一区二区三区动漫 | 丰满少妇一级片 | 狠狠网亚洲精品 | 91中文字幕网 | 免费观看黄 | 亚洲区另类春色综合小说 | 免费不卡中文字幕视频 | 国产福利精品视频 | 亚洲另类xxxx| 一级国产视频 | 久久免费福利视频 | bbbb操bbbb| 久久久精品日本 | 婷婷丁香狠狠爱 | 婷婷六月天天 | 91av小视频| 一 级 黄 色 片免费看的 | 午夜精品久久久久久中宇69 | 久久综合福利 | 久久综合九色欧美综合狠狠 | 欧美日韩有码 | 国产成人一二三 | 五月导航| 久99久精品视频免费观看 | 欧美日韩视频在线播放 | 成人午夜网址 | 欧美一二三视频 | 国产伦理一区二区三区 | 尤物一区二区三区 | 国产成人无码AⅤ片在线观 日韩av不卡在线 | 免费国产在线视频 | 一区二区三区在线播放 | 国产精品 视频 | 中文字幕 国产精品 | 黄色片网站av | 精品福利视频在线观看 | 午夜狠狠干 | 欧美日韩免费看 | 欧美成人精品欧美一级乱黄 | 亚洲永久精品在线观看 | 精品伦理一区二区三区 | 久久久亚洲国产精品麻豆综合天堂 | 久草精品在线观看 | 成人a级网站 | 国产另类av| 精品国产视频一区 | 亚洲精区二区三区四区麻豆 | 久久在线免费视频 | 亚洲国产黄色 | 激情久久久久 | 黄色电影小说 | 在线观看91视频 | 天堂在线一区 | 日韩视频在线观看免费 | 久久专区| 亚洲成人精品在线观看 | 一区二区三区在线免费观看视频 | 国产黄在线 | 国产精品麻豆免费版 | 久久国产剧场电影 | 三日本三级少妇三级99 | 又湿又紧又大又爽a视频国产 | 日日爽天天 | 欧美日韩p片| 国产欧美久久久精品影院 | 国产成人精品999在线观看 | 蜜臀av麻豆| 五月婷婷视频在线 | 日韩精品视频免费 | 精品免费视频123区 午夜久久成人 | 国产精品乱码久久久 | 韩国一区二区av | 三上悠亚一区二区在线观看 | 91视频链接 | 日韩精品一区在线播放 | 97成人精品视频在线观看 | 97视频网址 | 国产成人精品亚洲日本在线观看 | 国产在线视频一区 | 久草香蕉在线视频 | 日韩h在线观看 | 欧美日韩精品免费观看 | 国产精品第2页 | 视频一区在线播放 | 国产精品18久久久久久不卡孕妇 | 999视频在线播放 | 日韩av一区二区在线播放 | 91久久丝袜国产露脸动漫 | 久久综合久久久 | 午夜久久久影院 | 九色免费视频 | 日韩中文字幕免费视频 | 久久免费视频在线观看 | 国产一级免费观看 | 国产精品初高中精品久久 | 欧美日韩不卡在线视频 | 久草在线视频首页 | 久久精品九色 | 欧美精品久 | 天天操天天射天天插 | 午夜精品久久久久久久爽 | 国产精品久久久久久久妇 | 黄网站色成年免费观看 | 亚州av免费| 成年人免费看的视频 | 婷婷六月丁香激情 | 中文字幕在线观看免费高清完整版 | 国产一区二区三区四区大秀 | 午夜电影 电影 | 青青视频一区 | 97超碰国产在线 | 久久久久电影网站 | 五月激情亚洲 | 中文字幕在线观看一区二区三区 | 五月婷综合 | 婷婷六月在线 | 国产精品久久久久久久久久 | 国产精品国产亚洲精品看不卡15 | 人成电影网 | 探花视频在线版播放免费观看 | 国产视频九色蝌蚪 | 黄色网www| 国内精品视频在线 | 国产69精品久久久久99尤 | 99c视频在线 | 免费在线观看91 | 黄色三级免费 | 中文字幕日韩av | 日本久久免费电影 | 国产九九热视频 | 欧美日韩国产在线 | 中文字幕在线视频一区二区 | 久久电影国产免费久久电影 | 久久论理| 久久免费成人网 | 国产网红在线观看 | 亚洲成人频道 | 日韩欧美一级二级 | 国内外激情视频 | 国产精品久久久久久久久免费看 | 久久99国产综合精品免费 | 一区二区三区在线观看中文字幕 | 91色国产在线 | 99久热在线精品视频成人一区 | 国产精品中文久久久久久久 | 四虎成人av | 五月天婷婷综合 | 五月综合激情婷婷 | 亚洲一区二区三区精品在线观看 | 一区二区三区电影大全 | 免费91麻豆精品国产自产在线观看 | 久久综合九色综合久久久精品综合 | 一区二区三区中文字幕在线 | 深爱婷婷网 | 视频 国产区 | 亚洲精品字幕在线 | 日韩av成人在线观看 | 天天操天天爱天天爽 | 999在线视频 | 亚洲精品456在线播放 | 成年人在线看片 | 国产成人免费网站 | 主播av在线 | www黄在线| 久久精品精品电影网 | 91精品999 | 奇米四色影狠狠爱7777 | 国产在线一区二区 | 激情综合一区 | 中文字幕在线观看的网站 | 特黄免费av | 一区二区高清在线 | 在线观看视频在线观看 | 日韩国产精品一区 | 午夜精品福利一区二区三区蜜桃 | 日韩久久精品一区 | 久久1电影院 | 91女神的呻吟细腰翘臀美女 | 欧美日韩国内在线 | 香蕉视频国产在线观看 | 国产一区欧美二区 | 一区二区三区高清不卡 | 久久99免费视频 | 九草在线观看 | 日韩影视在线 | 狠狠色综合网站久久久久久久 | 国产成人亚洲在线观看 | 五月天com| 色婷婷久久一区二区 | 91污污视频在线观看 | 国产精品视屏 | 亚洲综合视频在线 | 五月天综合网站 | 久久久久亚洲精品男人的天堂 | 国内成人av| 国产麻豆精品在线观看 | 久久午夜视频 | 性色xxxxhd | 人人爱天天操 | 一级精品视频在线观看宜春院 | 日本黄色一级电影 | 狠狠干狠狠艹 | 午夜精品剧场 | 麻豆视频入口 | 久草网在线观看 | 麻豆免费视频 | 成人免费一级片 | 精品国模一区二区 | 日韩精品免费在线观看视频 | 激情电影在线观看 | 国产成人精品一二三区 | 国产亚洲精品v | 一级黄毛片| 久久精品久久久久 | 久久er99热精品一区二区 | 丁香婷婷激情 | 91视频高清 | 久久综合免费视频影院 | 亚洲 欧美 日韩 综合 | 国产第一页福利影院 | 亚洲老妇xxxxxx | 十八岁以下禁止观看的1000个网站 | 亚洲精欧美一区二区精品 | 日批网站在线观看 | 婷婷伊人综合亚洲综合网 | 国产精品a成v人在线播放 | 精品国产伦一区二区三区 | 探花视频在线观看免费 | 亚洲成人av一区二区 | 国产精彩视频一区二区 | 人人插人人插 | 久爱精品在线 | 亚洲午夜精品久久久 | 一本一道波多野毛片中文在线 | av资源免费在线观看 | 婷婷久月 | 99在线热播精品免费 | 欧美精品一区二区在线播放 | 欧美一二区视频 | 亚洲电影图片小说 | 五月婷婷香蕉 | www99精品| 亚洲精品在线视频网站 | 亚洲成人精品影院 | 免费看搞黄视频网站 | 毛片一级免费一级 | 99激情网 | 97超碰免费在线观看 | 国产成人综 | 天天操天天操天天干 | 西西4444www大胆视频 | 免费网站黄 | 一级片视频免费观看 | 国产成人一区二区精品非洲 | 国产小视频免费在线观看 | 日韩在线第一区 | 91精品视频网站 | 国产人免费人成免费视频 | 久久免费公开视频 | 亚洲精品乱码久久久久久 | 欧美超碰在线 | 久久免费电影网 | 超碰97免费在线 | 国产原创在线观看 | 96av在线视频 | 天天操天天操天天操天天操 | 九九热精品视频在线观看 | 亚洲成人av在线 | 日韩亚洲在线观看 | www.伊人色.com | 久久久国产精品一区二区中文 | 日韩啪啪小视频 | 欧美激情视频一区二区三区免费 | av免费在线免费观看 | 亚洲精品国精品久久99热 | 日韩欧美区| 久久影院中文字幕 | 91精品久久久久久久久久久久久 | 中文字幕在线看人 | 精品一区二区影视 | 久久精品免费播放 | 久久99精品波多结衣一区 | 久久久网站 | 日本论理电影 | 日韩影视大全 | 日免费视频 | 亚洲国产精久久久久久久 | 日韩女同一区二区三区在线观看 | 中文字幕在线看片 | 欧美成人h版电影 | 日韩高清www| 久久成人在线视频 | 福利一区二区在线 | 久久看毛片 | 婷婷爱五月天 | 亚洲一级片免费观看 | 久久久久婷 | 五月香视频在线观看 | 天天伊人网 | 亚洲欧美国产精品va在线观看 | 亚洲精品成人在线 | 蜜臀久久99精品久久久无需会员 | 亚洲精品视频二区 | 在线观看视频你懂的 | 欧美日韩久久 | 中文字幕亚洲精品在线观看 | 日韩国产欧美在线视频 | 99久久精品免费看国产一区二区三区 | 日韩r级在线 | 99视频精品全部免费 在线 | 狠狠久久综合 | 精品久久久999 | 狠狠干网站 | 成人一级片视频 | 国产精品国产自产拍高清av | 成人毛片一区二区三区 | 黄色影院在线观看 | 亚洲精品中文字幕在线观看 | 中文字幕视频在线播放 | 视频在线91| 日韩精选在线观看 | 久久精品96 | 国产精品99久久久久久久久久久久 | 丁香电影小说免费视频观看 | 欧美专区亚洲专区 | 亚洲精品a区 | 天天操天天操天天操天天操天天操 | 黄网站app在线观看免费视频 | 精品国产a | 成人动图| 人人干人人草 | 操操操av | 日本 在线 视频 中文 有码 | 天天拍天天操 | 在线观看成人国产 | 色吊丝在线永久观看最新版本 | 十八岁以下禁止观看的1000个网站 | 丁香花在线视频观看免费 | 狠狠色丁香久久婷婷综合丁香 | 色网站免费在线观看 | av解说在线 | 国产精品成人国产乱一区 | 久久视频在线观看 | 97成人在线免费视频 | 一区二区三区免费网站 | 国产视频一区在线免费观看 | 久久综合成人网 | 国产精品美女久久久久久久网站 | 人人射人人| www日韩在线观看 | 亚洲精品tv久久久久久久久久 | 久久久久久久久久久久99 | 一本一本久久a久久 | www.久热 | 中文字幕亚洲欧美日韩 | 在线观看电影av | 成人av网站在线播放 | 一区二区三区四区五区在线视频 | 亚洲性xxxx | 日本在线观看中文字幕无线观看 | 国内丰满少妇猛烈精品播放 | 精品久久视频 | 国产91亚洲 | 少妇精品久久久一区二区免费 | 激情av五月婷婷 | 国产免费观看久久黄 | 福利片视频区 | 爱射综合 | 香蕉视频国产在线观看 | 天天干天天拍天天操天天拍 | 日韩av一区在线观看 | 免费看的国产视频网站 | av在线免费在线观看 | av在线超碰| 精品一区二区三区久久 | www色婷婷com | 久久国产成人午夜av影院宅 | 国产成人精品一二三区 | 免费看黄色91 | 在线直播av | 在线观看免费视频 | 最近中文字幕完整高清 | 日韩精品视频免费在线观看 | 久久久久久草 | 中文字幕免费在线看 | 四虎成人在线 | 国内精品免费久久影院 | 日韩精品一区二区免费视频 | 国产v视频| 亚洲国产中文字幕在线视频综合 | 日本在线成人 | 欧美精品资源 | 在线色亚洲| 久久久国产精品一区二区三区 | 国产精品久久久网站 | 国产精品一区二区在线观看免费 | 国产精品麻豆三级一区视频 | 2019天天干天天色 | 国产在线一区二区 | 国产成人福利在线观看 | 在线性视频日韩欧美 | 欧美日韩亚洲在线观看 | 亚洲精品乱码久久久久久高潮 | 夜夜躁狠狠燥 | 91精品综合在线观看 | 免费在线播放av电影 | 手机看片国产 | 日韩免费在线观看视频 | 国产手机视频在线 | 午夜视频在线观看网站 | 粉嫩高清一区二区三区 | 91一区啪爱嗯打偷拍欧美 | 精品福利片 | 久久久精品电影 | 亚洲 欧洲av| 四虎成人精品永久免费av | 2024av| 999男人的天堂 | 免费看黄在线 | 国产精品自产拍在线观看蜜 | 在线中文字幕观看 | 午夜久久久精品 | 伊人影院在线观看 | 99高清视频有精品视频 | 天天色天天操综合 | 狠狠干婷婷 | 91久草视频 | 日精品在线观看 | 亚洲国产精品va在线看黑人动漫 | 国产日韩精品一区二区三区 | 久久er99热精品一区二区三区 | 国产特级毛片 | 91精品视屏 | 在线v| 日韩中文在线字幕 | 日韩.com | 啪啪肉肉污av国网站 | www.五月天婷婷 | 日韩在线视频播放 | 天天舔天天射天天操 | 观看免费av | 国产美女视频黄a视频免费 久久综合九色欧美综合狠狠 | 天堂在线视频免费观看 | 91资源在线 | 美女网站在线 | 91精品秘密在线观看 | 久久精品国产亚洲aⅴ | 亚洲成人第一区 | 9在线观看免费高清完整版在线观看明 | 香蕉在线播放 | 色网免费观看 | 夜夜摸夜夜爽 | 五月天六月婷 | 国产成人精品久久久久 | 日日干av | 777视频在线观看 | 亚洲精品国产综合99久久夜夜嗨 | 亚洲作爱 | 午夜久久久影院 | 99色网站 | 综合色播 | 日韩免费一区二区在线观看 | 一区二区三区四区不卡 | 天天艹天天干天天 | 私人av | 久久久久久免费视频 | 超碰成人网 | 亚洲资源在线网 | 三级av黄色 | 国内视频在线观看 | 精品国产一区二区三区噜噜噜 | 91免费高清 | 色之综合网 | 久久久久久久久久电影 | 在线免费观看视频a | 久久99热精品 | 久久免费黄色网址 | 欧美国产精品一区二区 | 国产精品第二页 | 香蕉成人在线视频 | 91成人亚洲 | 亚洲v欧美v国产v在线观看 | 成人资源在线观看 | 国产高清在线观看 | 蜜臀av性久久久久av蜜臀妖精 | 91精品久久久久久 | 亚洲成av人片在线观看 | 99久久精品免费一区 | 亚洲人人爱 | 手机版av在线 | 精品久久久久久国产 | 九色在线 | 日韩精品在线看 | 九九热免费在线视频 | 国产精品美女久久久免费 | 久久免费激情视频 | 国产亚洲精品女人久久久久久 | 久久久久久久国产精品视频 | 亚洲免费高清视频 | 狠狠色免费 | 欧美成年人在线视频 | 丝袜制服综合网 | 日日射av| 亚洲一区二区三区毛片 | 手机av网站| 在线日韩精品视频 | 亚洲自拍偷拍色图 | 久久久18 | 色综合久久久久综合99 | 亚洲成人免费在线观看 | 黄色小网站在线观看 | 中文字幕一区二区三区在线播放 | www久| 欧美日韩大片在线观看 | 一区二区视频在线观看免费 | 欧美激情精品一区 | av东方在线| 手机av电影在线观看 | 久久大片网站 | 婷婷伊人综合亚洲综合网 |