日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

[Python]网络爬虫(三):异常的处理和HTTP状态码的分类

發(fā)布時(shí)間:2025/3/21 python 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 [Python]网络爬虫(三):异常的处理和HTTP状态码的分类 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

先來說一說HTTP的異常處理問題。
當(dāng)urlopen不能夠處理一個(gè)response時(shí),產(chǎn)生urlError。
不過通常的Python APIs異常如ValueError,TypeError等也會(huì)同時(shí)產(chǎn)生。
HTTPError是urlError的子類,通常在特定HTTP URLs中產(chǎn)生。
?
1.URLError
通常,URLError在沒有網(wǎng)絡(luò)連接(沒有路由到特定服務(wù)器),或者服務(wù)器不存在的情況下產(chǎn)生。

這種情況下,異常同樣會(huì)帶有"reason"屬性,它是一個(gè)tuple(可以理解為不可變的數(shù)組),

包含了一個(gè)錯(cuò)誤號和一個(gè)錯(cuò)誤信息。

我們建一個(gè)urllib2_test06.py來感受一下異常的處理:

import urllib2req = urllib2.Request('http://www.baibai.com')try: urllib2.urlopen(req)except urllib2.URLError, e: ?print e.reason


按下F5,可以看到打印出來的內(nèi)容是:
[Errno 11001] getaddrinfo failed

也就是說,錯(cuò)誤號是11001,內(nèi)容是getaddrinfo failed

2.HTTPError
服務(wù)器上每一個(gè)HTTP 應(yīng)答對象response包含一個(gè)數(shù)字"狀態(tài)碼"。

有時(shí)狀態(tài)碼指出服務(wù)器無法完成請求。默認(rèn)的處理器會(huì)為你處理一部分這種應(yīng)答。

例如:假如response是一個(gè)"重定向",需要客戶端從別的地址獲取文檔,urllib2將為你處理。

其他不能處理的,urlopen會(huì)產(chǎn)生一個(gè)HTTPError。

典型的錯(cuò)誤包含"404"(頁面無法找到),"403"(請求禁止),和"401"(帶驗(yàn)證請求)。

HTTP狀態(tài)碼表示HTTP協(xié)議所返回的響應(yīng)的狀態(tài)。

比如客戶端向服務(wù)器發(fā)送請求,如果成功地獲得請求的資源,則返回的狀態(tài)碼為200,表示響應(yīng)成功。

如果請求的資源不存在, 則通常返回404錯(cuò)誤。?

HTTP狀態(tài)碼通常分為5種類型,分別以1~5五個(gè)數(shù)字開頭,由3位整數(shù)組成:

------------------------------------------------------------------------------------------------

200:請求成功 ?????處理方式:獲得響應(yīng)的內(nèi)容,進(jìn)行處理?

201:請求完成,結(jié)果是創(chuàng)建了新資源。新創(chuàng)建資源的URI可在響應(yīng)的實(shí)體中得到 ???處理方式:爬蟲中不會(huì)遇到?

202:請求被接受,但處理尚未完成 ???處理方式:阻塞等待?

204:服務(wù)器端已經(jīng)實(shí)現(xiàn)了請求,但是沒有返回新的信 息。如果客戶是用戶代理,則無須為此更新自身的文檔視圖。 ???處理方式:丟棄

300:該狀態(tài)碼不被HTTP/1.0的應(yīng)用程序直接使用, 只是作為3XX類型回應(yīng)的默認(rèn)解釋。存在多個(gè)可用的被請求資源。????處理方式:若程序中能夠處理,則進(jìn)行進(jìn)一步處理,如果程序中不能處理,則丟棄
301:請求到的資源都會(huì)分配一個(gè)永久的URL,這樣就可以在將來通過該URL來訪問此資源????處理方式:重定向到分配的URL
302:請求到的資源在一個(gè)不同的URL處臨時(shí)保存 ????處理方式:重定向到臨時(shí)的URL?

304 請求的資源未更新 ????處理方式:丟棄?

400 非法請求 ????處理方式:丟棄?

401 未授權(quán) ????處理方式:丟棄?

403 禁止 ????處理方式:丟棄?

404 沒有找到 ????處理方式:丟棄?

5XX 回應(yīng)代碼以“5”開頭的狀態(tài)碼表示服務(wù)器端發(fā)現(xiàn)自己出現(xiàn)錯(cuò)誤,不能繼續(xù)執(zhí)行請求 ???處理方式:丟棄


------------------------------------------------------------------------------------------------

HTTPError實(shí)例產(chǎn)生后會(huì)有一個(gè)整型'code'屬性,是服務(wù)器發(fā)送的相關(guān)錯(cuò)誤號。
Error Codes錯(cuò)誤碼
因?yàn)槟J(rèn)的處理器處理了重定向(300以外號碼),并且100-299范圍的號碼指示成功,所以你只能看到400-599的錯(cuò)誤號碼。
BaseHTTPServer.BaseHTTPRequestHandler.response是一個(gè)很有用的應(yīng)答號碼字典,顯示了HTTP協(xié)議使用的所有的應(yīng)答號。

當(dāng)一個(gè)錯(cuò)誤號產(chǎn)生后,服務(wù)器返回一個(gè)HTTP錯(cuò)誤號,和一個(gè)錯(cuò)誤頁面。

你可以使用HTTPError實(shí)例作為頁面返回的應(yīng)答對象response。

這表示和錯(cuò)誤屬性一樣,它同樣包含了read,geturl,和info方法。


我們建一個(gè)urllib2_test07.py來感受一下:

import urllib2 req = urllib2.Request('http://bbs.csdn.net/callmewhy')try:urllib2.urlopen(req)except urllib2.URLError, e:print e.code#print e.read()

按下F5可以看見輸出了404的錯(cuò)誤碼,也就說沒有找到這個(gè)頁面。


3.Wrapping

所以如果你想為HTTPError或URLError做準(zhǔn)備,將有兩個(gè)基本的辦法。推薦使用第二種。


我們建一個(gè)urllib2_test08.py來示范一下第一種異常處理的方案:

from urllib2 import Request, urlopen, URLError, HTTPErrorreq = Request('http://bbs.csdn.net/callmewhy')try:response = urlopen(req)except HTTPError, e:print 'The server couldn\'t fulfill the request.'print 'Error code: ', e.codeexcept URLError, e:print 'We failed to reach a server.'print 'Reason: ', e.reasonelse:print 'No exception was raised.'# everything is fine

和其他語言相似,try之后捕獲異常并且將其內(nèi)容打印出來。
這里要注意的一點(diǎn),except HTTPError 必須在第一個(gè),否則except URLError將同樣接受到HTTPError?。
因?yàn)镠TTPError是URLError的子類,如果URLError在前面它會(huì)捕捉到所有的URLError(包括HTTPError?)。


我們建一個(gè)urllib2_test09.py來示范一下第二種異常處理的方案:

from urllib2 import Request, urlopen, URLError, HTTPErrorreq = Request('http://bbs.csdn.net/callmewhy')try: ?response = urlopen(req) ?except URLError, e: ?if hasattr(e, 'code'): ?print 'The server couldn\'t fulfill the request.' ?print 'Error code: ', e.code ?elif hasattr(e, 'reason'): ?print 'We failed to reach a server.' ?print 'Reason: ', e.reason ?else: ?print 'No exception was raised.' ?

---------------------?
作者:請叫我汪海?
來源:CSDN?
原文:https://blog.csdn.net/pleasecallmewhy/article/details/8923725?
版權(quán)聲明:本文為博主原創(chuàng)文章,轉(zhuǎn)載請附上博文鏈接!

總結(jié)

以上是生活随笔為你收集整理的[Python]网络爬虫(三):异常的处理和HTTP状态码的分类的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。