日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 前端技术 > HTML >内容正文

HTML

七 web爬虫讲解2—urllib库爬虫—状态吗—异常处理—浏览器伪装技术、设置用户代理...

發(fā)布時間:2023/12/13 HTML 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 七 web爬虫讲解2—urllib库爬虫—状态吗—异常处理—浏览器伪装技术、设置用户代理... 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

如果爬蟲沒有異常處理,那么爬行中一旦出現(xiàn)錯誤,程序?qū)⒈罎⑼V构ぷ?#xff0c;有異常處理即使出現(xiàn)錯誤也能繼續(xù)執(zhí)行下去

?

1.常見狀態(tài)嗎

301:重定向到新的URL,永久性
302:重定向到臨時URL,非永久性
304:請求的資源未更新
400:非法請求
401:請求未經(jīng)授權(quán)
403:禁止訪問
404:沒找到對應(yīng)頁面
500:服務(wù)器內(nèi)部出現(xiàn)錯誤
501:服務(wù)器不支持實現(xiàn)請求所需要的功能

?

2.異常處理

URLError捕獲異常信息

#!/usr/bin/env python # -*- coding: utf-8 -*-import urllib.request import urllib.errortry: #嘗試執(zhí)行里面的內(nèi)容html = urllib.request.urlopen('http://www.xiaohuar.com/').read().decode("utf-8")print(html)except urllib.error.URLError as e: #如果出現(xiàn)錯誤if hasattr(e,"code"): #如果有錯誤代碼print(e.code) #打印錯誤代碼if hasattr(e,"reason"): #如果有錯誤信息print(e.reason) #打印錯誤信息#返回 說明網(wǎng)站禁止了爬蟲訪問 # 403 # Forbidden

?

瀏覽器偽裝技術(shù)

很多網(wǎng)站,做了反爬技術(shù),一般在后臺檢測請求頭信息里是否有User-Agent瀏覽器信息,如果沒有說明不是瀏覽器訪問,就屏蔽了這次請求

所以,我們需要偽裝瀏覽器報頭來請求

?

#!/usr/bin/env python # -*- coding: utf-8 -*-import urllib.request url = 'https://www.qiushibaike.com/' #抓取頁面URL tou = ('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64; rv:54.0) Gecko/20100101 Firefox/54.0') #設(shè)置模擬瀏覽器報頭 b_tou = urllib.request.build_opener() #創(chuàng)建請求對象 b_tou.addheaders=[tou] #添加報頭 html = b_tou.open(url).read().decode("utf-8") #開始抓取頁面 print(html)

?

注意:我們可以看到這次請求并不是用urlopen()方法請求的,此時用urlopen()無法請求,但是我們就會感覺到這樣很費勁,難道每次請求都要創(chuàng)建build_opener(),所以我們需要設(shè)置使用urlopen()方法請求自動報頭

?

設(shè)置使用urlopen()方法請求自動報頭,也就是設(shè)置用戶代理

install_opener()將報頭信息設(shè)置為全局,urlopen()方法請求時也會自動添加報頭

#!/usr/bin/env python # -*- coding: utf-8 -*-import urllib.request #設(shè)置報頭信息 tou = ('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64; rv:54.0) Gecko/20100101 Firefox/54.0') #設(shè)置模擬瀏覽器報頭 b_tou = urllib.request.build_opener() #創(chuàng)建請求對象 b_tou.addheaders=[tou] #添加報頭到請求對象 #將報頭信息設(shè)置為全局,urlopen()方法請求時也會自動添加報頭 urllib.request.install_opener(b_tou)#請求 url = 'https://www.qiushibaike.com/' html = urllib.request.urlopen(url).read().decode("utf-8") print(html)

?

創(chuàng)建用戶代理池

?

#!/usr/bin/env python # -*- coding: utf-8 -*-import urllib.request import random #引入隨機模塊文件def yh_dl(): #創(chuàng)建用戶代理池yhdl = ['Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50','Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0','Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)','Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1','Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1','Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11','Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; TencentTraveler 4.0)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; The World)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Avant Browser)','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)','Mozilla/5.0 (iPhone; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5','User-Agent:Mozilla/5.0 (iPod; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5','Mozilla/5.0 (iPad; U; CPU OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5','Mozilla/5.0 (Linux; U; Android 2.3.7; en-us; Nexus One Build/FRF91) AppleWebKit/533.1 (KHTML, like Gecko) Version/4.0 Mobile Safari/533.1','Opera/9.80 (Android 2.3.4; Linux; Opera Mobi/build-1107180945; U; en-GB) Presto/2.8.149 Version/11.10','Mozilla/5.0 (Linux; U; Android 3.0; en-us; Xoom Build/HRI39) AppleWebKit/534.13 (KHTML, like Gecko) Version/4.0 Safari/534.13','Mozilla/5.0 (BlackBerry; U; BlackBerry 9800; en) AppleWebKit/534.1+ (KHTML, like Gecko) Version/6.0.0.337 Mobile Safari/534.1+','Mozilla/5.0 (compatible; MSIE 9.0; Windows Phone OS 7.5; Trident/5.0; IEMobile/9.0; HTC; Titan)','UCWEB7.0.2.37/28/999','NOKIA5700/ UCWEB7.0.2.37/28/999','Openwave/ UCWEB7.0.2.37/28/999','Mozilla/4.0 (compatible; MSIE 6.0; ) Opera/UCWEB7.0.2.37/28/999']thisua = random.choice(yhdl) #隨機獲取代理信息headers = ("User-Agent",thisua) #拼接報頭信息opener = urllib.request.build_opener() #創(chuàng)建請求對象opener.addheaders=[headers] #添加報頭到請求對象urllib.request.install_opener(opener) #將報頭信息設(shè)置為全局,urlopen()方法請求時也會自動添加報頭#請求 yh_dl() #執(zhí)行用戶代理池函數(shù) url = 'https://www.qiushibaike.com/' html = urllib.request.urlopen(url).read().decode("utf-8") print(html)

?

這樣爬蟲會隨機調(diào)用,用戶代理,也就是隨機報頭,保證每次報頭信息不一樣

轉(zhuǎn)載于:https://www.cnblogs.com/meng-wei-zhi/p/8182538.html

總結(jié)

以上是生活随笔為你收集整理的七 web爬虫讲解2—urllib库爬虫—状态吗—异常处理—浏览器伪装技术、设置用户代理...的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。