日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

爬虫python爬取页面请求_03 Python网络爬虫第三弹《爬取get请求的页面数据》,urllib...

發布時間:2024/9/19 python 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 爬虫python爬取页面请求_03 Python网络爬虫第三弹《爬取get请求的页面数据》,urllib... 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一.urllib庫

urllib是Python自帶的一個用于爬蟲的庫,其主要作用就是可以通過代碼模擬瀏覽器發送請求。其常被用到的子模塊在Python3中的為urllib.request和urllib.parse,在Python2中是urllib和urllib2。

二.由易到難的爬蟲程序:

1.爬取百度首頁面所有數據值

1 #!/usr/bin/env python

2 #-*- coding:utf-8 -*-

3 #導包

4 importurllib.request5 importurllib.parse6 if __name__ == "__main__":7 #指定爬取的網頁url

8 url = 'http://www.baidu.com/'

9 #通過urlopen函數向指定的url發起請求,返回響應對象

10 reponse = urllib.request.urlopen(url=url)11 #通過調用響應對象中的read函數,返回響應回客戶端的數據值(爬取到的數據)

12 data = reponse.read()#返回的數據為byte類型,并非字符串

13 print(data)#打印顯示爬取到的數據值。

#補充說明

urlopen函數原型:urllib.request.urlopen(url, data=None, timeout=, *, cafile=None, capath=None, cadefault=False, context=None)

在上述案例中我們只使用了該函數中的第一個參數url。在日常開發中,我們能用的只有url和data這兩個參數。

url參數:指定向哪個url發起請求

data參數:可以將post請求中攜帶的參數封裝成字典的形式傳遞給該參數(暫時不需要理解,后期會講)

urlopen函數返回的響應對象,相關函數調用介紹:

response.headers():獲取響應頭信息

response.getcode():獲取響應狀態碼

response.geturl():獲取請求的url

response.read():獲取響應中的數據值(字節類型)

2.將爬取到百度新聞首頁的數據值寫入文件進行存儲

#!/usr/bin/env python#-*- coding:utf-8 -*-

importurllib.requestimporturllib.parseif __name__ == "__main__":

url= 'http://news.baidu.com/'reponse= urllib.request.urlopen(url=url)#decode()作用是將響應中字節(byte)類型的數據值轉成字符串類型

data =reponse.read().decode()#使用IO操作將data表示的數據值以'w'權限的方式寫入到news.html文件中

with open('./news.html','w') as fp:

fp.write(data)print('寫入文件完畢')

3.爬取網絡上某張圖片數據,且存儲到本地

#!/usr/bin/env python#-*- coding:utf-8 -*-

importurllib.requestimporturllib.parse#如下兩行代碼表示忽略https證書,因為下面請求的url為https協議的請求,如果請求不是https則該兩行代碼可不用。

importssl

ssl._create_default_https_context=ssl._create_unverified_contextif __name__ == "__main__":#url是https協議的

url = 'https://timgsa.baidu.com/timg?image&quality=80&size=b9999_10000&sec=1536918978042&di=172c5a4583ca1d17a1a49dba2914cfb9&imgtype=0&src=http%3A%2F%2Fimgsrc.baidu.com%2Fimgad%2Fpic%2Fitem%2F0dd7912397dda144f04b5d9cb9b7d0a20cf48659.jpg'reponse= urllib.request.urlopen(url=url)

data= reponse.read()#因為爬取的是圖片數據值(二進制數據),則無需使用decode進行類型轉換。

with open('./money.jpg','wb') as fp:

fp.write(data)print('寫入文件完畢')

4.url的特性:url必須為ASCII編碼的數據值。所以我們在爬蟲代碼中編寫url時,如果url中存在非ASCII編碼的數據值,則必須對其進行ASCII編碼后,該url方可被使用。

案例:爬取使用百度根據指定詞條搜索到的頁面數據(例如爬取詞條為‘周杰倫’的頁面數據)

#!/usr/bin/env python#-*- coding:utf-8 -*-

importurllib.requestimporturllib.parseif __name__ == "__main__":#原始url中存在非ASCII編碼的值,則該url無法被使用。

#url = 'http://www.baidu.com/s?ie=utf-8&kw=周杰倫'

#處理url中存在的非ASCII數據值

url = 'http://www.baidu.com/s?'

#將帶有非ASCII的數據封裝到字典中,url中非ASCII的數據往往都是'?'后面鍵值形式的請求參數

param ={'ie':'utf-8','wd':'周杰倫'}#使用parse子模塊中的urlencode函數將封裝好的字典中存在的非ASCII的數值進行ASCII編碼

param =urllib.parse.urlencode(param)#將編碼后的數據和url進行整合拼接成一個完整可用的url

url = url +paramprint(url)

response= urllib.request.urlopen(url=url)

data=response.read()

with open('./周杰倫.html','wb') as fp:

fp.write(data)print('寫入文件完畢')

5.通過自定義請求對象,用于偽裝爬蟲程序請求的身份。

之前在講解http常用請求頭信息時,我們講解過User-Agent參數,簡稱為UA,該參數的作用是用于表明本次請求載體的身份標識。如果我們通過瀏覽器發起的請求,則該請求的載體為當前瀏覽器,則UA參數的值表明的是當前瀏覽器的身份標識表示的一串數據。如果我們使用爬蟲程序發起的一個請求,則該請求的載體為爬蟲程序,那么該請求的UA為爬蟲程序的身份標識表示的一串數據。有些網站會通過辨別請求的UA來判別該請求的載體是否為爬蟲程序,如果為爬蟲程序,則不會給該請求返回響應,那么我們的爬蟲程序則也無法通過請求爬取到該網站中的數據值,這也是反爬蟲的一種初級技術手段。那么為了防止該問題的出現,則我們可以給爬蟲程序的UA進行偽裝,偽裝成某款瀏覽器的身份標識。

上述案例中,我們是通過request模塊中的urlopen發起的請求,該請求對象為urllib中內置的默認請求對象,我們無法對其進行UA進行更改操作。urllib還為我們提供了一種自定義請求對象的方式,我們可以通過自定義請求對象的方式,給該請求對象中的UA進行偽裝(更改)操作。

#!/usr/bin/env python#-*- coding:utf-8 -*-

importurllib.requestimporturllib.parseimportssl

ssl._create_default_https_context=ssl._create_unverified_contextif __name__ == "__main__":#原始url中存在非ASCII編碼的值,則該url無法被使用。

#url = 'http://www.baidu.com/s?ie=utf-8&kw=周杰倫'

#處理url中存在的非ASCII數據值

url = 'http://www.baidu.com/s?'

#將帶有非ASCII的數據封裝到字典中,url中非ASCII的數據往往都是'?'后面鍵值形式的請求參數

param ={'ie':'utf-8','wd':'周杰倫'}#使用parse子模塊中的urlencode函數將封裝好的字典中存在的非ASCII的數值進行ASCII編碼

param =urllib.parse.urlencode(param)#將編碼后的數據和url進行整合拼接成一個完整可用的url

url = url +param#將瀏覽器的UA數據獲取,封裝到一個字典中。該UA值可以通過抓包工具或者瀏覽器自帶的開發者工具中獲取某請求,從中獲取UA的值

headers={'User-Agent' : 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36'}#自定義一個請求對象

#參數:url為請求的url。headers為UA的值。data為post請求的請求參數(后面講)

request = urllib.request.Request(url=url,headers=headers)#發送我們自定義的請求(該請求的UA已經進行了偽裝)

response =urllib.request.urlopen(request)

data=response.read()

with open('./周杰倫.html','wb') as fp:

fp.write(data)print('寫入數據完畢')

總結

以上是生活随笔為你收集整理的爬虫python爬取页面请求_03 Python网络爬虫第三弹《爬取get请求的页面数据》,urllib...的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。