日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

python爬虫之urllib库详解

發(fā)布時(shí)間:2024/4/18 python 63 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬虫之urllib库详解 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

python爬蟲之urllib庫詳解

  • 前言
  • 一、urllib庫是什么?
  • 二、urllib庫的使用
    • urllib.request模塊
    • urllib.parse模塊
    • 利用try-except,進(jìn)行超時(shí)處理
    • status狀態(tài)碼 && getheaders()
    • 突破反爬


前言

想要進(jìn)行python爬蟲首先我們需要先將網(wǎng)頁上面的信息給獲取下來,這就是utllib庫的作用


一、urllib庫是什么?

urllib庫用于操作網(wǎng)頁 URL,并對網(wǎng)頁的內(nèi)容進(jìn)行抓取處理
  • urllib 包 包含以下幾個(gè)模塊:
    • urllib.request - 打開和讀取 URL。
    • urllib.error - 包含 urllib.request 拋出的異常。
    • urllib.parse - 解析 URL。
    • urllib.robotparser - 解析 robots.txt 文件
  • python爬蟲主要用到的urllib庫中的request和parse模塊

二、urllib庫的使用

下面我們來詳細(xì)說明一下這兩個(gè)常用模塊的基本運(yùn)用

urllib.request模塊

urllib.request 定義了一些打開 URL 的函數(shù)和類,包含授權(quán)驗(yàn)證、重定向、瀏覽器 cookies等。

語法如下:

  • urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None)
    • url:url 地址。
    • data:發(fā)送到服務(wù)器的其他數(shù)據(jù)對象,默認(rèn)為 None。
    • timeout:設(shè)置訪問超時(shí)時(shí)間。
    • cafile 和 capath:cafile 為 CA 證書, capath 為 CA 證書的路徑,使用 HTTPS 需要用到。
    • cadefault:已經(jīng)被棄用。
    • context:ssl.SSLContext類型,用來指定 SSL 設(shè)置。
# -*- codeing = utf-8 -*- # @Author: Y-peak # @Time : 2021/9/2 19:24 # @FileName : testUrllib.py # Software : PyCharmimport urllib.request #get請求 response = urllib.request.urlopen("http://www.baidu.com") #返回的是存儲網(wǎng)頁數(shù)據(jù)的對象 #print(response) 可以嘗試打印一下看一下 print(response.read().decode('utf-8')) #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼

將其打印的內(nèi)容寫到一個(gè)html文件中,打開和百度一毛一樣

# -*- codeing = utf-8 -*- # @Author: Y-peak # @Time : 2021/9/2 19:24 # @FileName : testUrllib.py # Software : PyCharmimport urllib.request response = urllib.request.urlopen("http://www.baidu.com") #返回的是存儲網(wǎng)頁數(shù)據(jù)的對象 data = response.read().decode('utf-8') #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼 #print(data) with open("index.html",'w',encoding='utf-8') as wfile: #或者你們也可以常規(guī)打開,不過需要最后關(guān)閉記得close()wfile.write(data)print("讀取結(jié)束")

urllib.parse模塊

有時(shí)我們爬蟲需要模擬瀏覽器進(jìn)行用戶登錄等操作,這個(gè)時(shí)候我們就需要進(jìn)行post請求

但是post必須有一個(gè)獲取請求之后的響應(yīng),也就是我們需要有一個(gè)服務(wù)器。給大家介紹一個(gè)免費(fèi)的服務(wù)器網(wǎng)址,就是用來測試用的http://httpbin.org/。主要用來測試http和https的


我們可以嘗試執(zhí)行一下,去獲取對應(yīng)的響應(yīng)。


可以用Linux命令去發(fā)起請求,URL地址為http://httpbin.org/post。得到下方的響應(yīng)。

我們也可以通過爬蟲來實(shí)現(xiàn)

# -*- codeing = utf-8 -*- # @Author: Y-peak # @Time : 2021/9/2 19:24 # @FileName : testUrllib.py # Software : PyCharmimport urllib.request import urllib.parse #解析器 data = bytes(urllib.parse.urlencode({"hello":"world"}),encoding='utf-8') #轉(zhuǎn)換為二進(jìn)制數(shù)據(jù)包,里面是鍵值對(有時(shí)輸入的用戶名:密碼就是這樣的),還有一些編碼解碼的數(shù)值等.這里就是按照utf-8的格式進(jìn)行解析封裝生成二進(jìn)制數(shù)據(jù)包 response = urllib.request.urlopen("http://httpbin.org/post",data=data) #返回的請求 print(response.read().decode('utf-8')) #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼

兩個(gè)響應(yīng)結(jié)果對比是不是一樣幾乎

相當(dāng)于進(jìn)行了一次模擬的post請求。這樣有些需要登錄的網(wǎng)站也是可以爬取的。

利用try-except,進(jìn)行超時(shí)處理

一般進(jìn)行爬蟲時(shí),不可能一直等待響應(yīng)。有時(shí)網(wǎng)絡(luò)不好或者網(wǎng)頁有反爬或者一些其他東西時(shí)。無法快速爬出。我們就可以進(jìn)入下一個(gè)網(wǎng)頁繼續(xù)去爬。利用timeout屬性就好

# -*- codeing = utf-8 -*- # @Author: Y-peak # @Time : 2021/9/2 19:24 # @FileName : testUrllib.py # Software : PyCharmimport urllib.request try:response = urllib.request.urlopen("http://httpbin.org/get",timeout=0.01) #返回的是存儲網(wǎng)頁數(shù)據(jù)的對象, 直接用這個(gè)網(wǎng)址的get請求了.timeout表示超時(shí),超過0.01秒不響應(yīng)就報(bào)錯(cuò),避免持續(xù)等待print(response.read().decode('utf-8')) #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼 except urllib.error.URLError as e:print("超時(shí)了\t\t錯(cuò)誤為:",e)

status狀態(tài)碼 && getheaders()

  • status:
    • 返回200,正確響應(yīng)可以爬取
    • 報(bào)錯(cuò)404,沒有找到網(wǎng)頁
    • 報(bào)錯(cuò)418,老子知道你就是爬蟲
  • getheaders():獲取Response Headers
    • 也可以通過gethead(“xx”) 獲取xx對應(yīng)的值,比如:上圖 gethead(content-encoding) 為 gzip

突破反爬

首先打開任何一個(gè)網(wǎng)頁按F12找到Response Headers,拉到最下面找到 User-Agent。將其復(fù)制保存下來,為反爬做準(zhǔn)備。


下面我們進(jìn)行嘗試,直接爬取豆瓣,直接來個(gè)418,知道你是爬蟲,我們來偽裝一下

為什么418呢,因?yàn)槿绻侵苯舆M(jìn)行請求訪問的話,發(fā)過去的User-Agent 是下面的,直接告訴瀏覽器我們是爬蟲。我們需要偽裝

# -*- codeing = utf-8 -*- # @Author: Y-peak # @Time : 2021/9/2 19:24 # @FileName : testUrllib.py # Software : PyCharmimport urllib.requestheaders = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36" } request = urllib.request.Request("http://douban.com", headers=headers) #返回的是請求,將我們偽裝成瀏覽器發(fā)送的請求 response = urllib.request.urlopen(request) #返回的是存儲網(wǎng)頁數(shù)據(jù)的對象 data = response.read().decode('utf-8') #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼 with open("index.html",'w',encoding='utf-8') as wfile: #或者你們也可以常規(guī)打開,不過需要最后關(guān)閉記得close()wfile.write(data)

當(dāng)然反爬不可能如此簡單,上面將講的那個(gè) post請求,也是十分常見的突破反爬的方式,不行就將整個(gè)Response Headers全部模仿。下面還有個(gè)例子作為參考。和上面的post訪問的網(wǎng)址一樣

  • 瀏覽器訪問結(jié)果
  • 爬蟲訪問結(jié)果
# -*- codeing = utf-8 -*- # @Author: Y-peak # @Time : 2021/9/3 0:47 # @FileName : testUrllib.py # Software : PyCharmimport urllib.request import urllib.parse headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36" } url = "http://httpbin.org/post" data = (bytes)(urllib.parse.urlencode({"賬戶":"密碼"}),encoding = 'utf-8') request = urllib.request.Request(url, data = data,headers=headers, method='POST') #返回的是請求 response = urllib.request.urlopen(request) #返回的是存儲網(wǎng)頁數(shù)據(jù)的對象 data = response.read().decode('utf-8') #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼 print(data)

總結(jié)

以上是生活随笔為你收集整理的python爬虫之urllib库详解的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。