python输入数据爬取_python根据用户需求输入想爬取的内容及页数爬取图片方法详解...
本次小編向大家介紹的是根據(jù)用戶的需求輸入想爬取的內(nèi)容及頁數(shù)。
主要步驟:
1.提示用戶輸入爬取的內(nèi)容及頁碼。
2.根據(jù)用戶輸入,獲取網(wǎng)址列表。
3.模擬瀏覽器向服務(wù)器發(fā)送請求,獲取響應(yīng)。
4.利用xpath方法找到圖片的標(biāo)簽。
5.保存數(shù)據(jù)。
代碼用面向過程的形式編寫的。
關(guān)鍵字:requests庫,xpath,面向過程
現(xiàn)在就來講解代碼書寫的過程:
1.導(dǎo)入模塊
import parsel # 該模塊主要用來將請求后的字符串格式解析成re,xpath,css進(jìn)行內(nèi)容的匹配
import requests # 爬蟲主要的包
from urllib.request import urlretrieve # 本文用來下載圖片
import os # 標(biāo)準(zhǔn)庫,本文用來新建文件夾
每個模塊的作用都已經(jīng)備注了。
2.提示用戶輸入內(nèi)容和頁數(shù)
if not os.path.exists("王一博圖片"):
os.mkdir("王一博圖片") # 判斷有沒有該文件夾,如果沒有就創(chuàng)建改文件夾
k = input("請輸入你想搜索的關(guān)鍵字:")
num = int(input("請輸入你想搜索的頁數(shù):"))
3.準(zhǔn)備好url和header
header = {"user-agent":
"Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Mobile Safari/537.36"
}
base_url = "https://www.duitang.com/search/?kw=" + k + "&type=feed#!s-p"
title_url = []
n = 0
user-agent是服務(wù)器識別瀏覽器的重要參數(shù),我們就用這個來蒙騙服務(wù)器,user-agent在瀏覽器里可以找到
那么現(xiàn)在我們就關(guān)注右邊
這樣header就找到了,注意要以字典的形式
4.發(fā)送請求、
for i in range(num):
title_url = base_url + str(i)
respons = requests.get(title_url, headers=header).text
html = parsel.Selector(respons) # 解析數(shù)據(jù) -- parsel 轉(zhuǎn)化為Selector對象,Selector對象具有xpath的方法,能夠?qū)D(zhuǎn)化的數(shù)據(jù)進(jìn)行處理
pic_url = html.xpath('//div[@class="mbpho"]/a/img/@src').extract()
一切準(zhǔn)備就緒后,就可以發(fā)送請求了。request.get.text返回的是網(wǎng)頁的源代碼,然后將源代碼轉(zhuǎn)換為Selector對象,再通過xpath的方法找到圖片的網(wǎng)址。
5.保存數(shù)據(jù)
獲取圖片的圖片的鏈接后,我們就可以保存了。
for url in pic_url:
n = n + 1
file_path = "王一博圖片" + '/' + str(n)+".jpg"
urlretrieve(url, file_path) # 下載圖片,具體的用法可以去搜索下,很簡單的
print("第%d張圖片下載成功" % n)
注意:這里的for循環(huán)是在上面的循環(huán)里嵌套的。
最后來看看全部的代碼吧!
import parsel # 該模塊主要用來將請求后的字符串格式解析成re,xpath,css進(jìn)行內(nèi)容的匹配
import requests
from urllib.request import urlretrieve # 本文用來下載圖片
import os # 標(biāo)準(zhǔn)庫,本文用來新建文件夾
if not os.path.exists("王一博圖片"):
os.mkdir("王一博圖片") # 判斷有沒有該文件夾,如果沒有就創(chuàng)建改文件夾
k = input("請輸入你想搜索的關(guān)鍵字:")
num = int(input("請輸入你想搜索的頁數(shù):"))
header = {"user-agent":
"Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Mobile Safari/537.36"
}
base_url = "https://www.duitang.com/search/?kw=" + k + "&type=feed#!s-p"
title_url = []
n = 0
for i in range(num):
title_url = base_url + str(i)
respons = requests.get(title_url, headers=header).text
html = parsel.Selector(respons)
pic_url = html.xpath('//div[@class="mbpho"]/a/img/@src').extract()
# print(pic_url)
for url in pic_url:
n = n + 1
file_path = "王一博圖片" + '/' + str(n)+".jpg"
urlretrieve(url, file_path) # 下載圖片,具體的用法可以去搜索下,很簡單的
print("第%d張圖片下載成功" % n)
來看看運行的結(jié)果,以搜索王一博,搜索5頁為例。
然后你就發(fā)信多了一個王一博的文件夾了,點開就可以看見王一博的帥照了。
到此這篇關(guān)于python根據(jù)用戶需求輸入想爬取的內(nèi)容及頁數(shù)爬取圖片方法詳解的文章就介紹到這了,更多相關(guān)python爬取圖片方法內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
總結(jié)
以上是生活随笔為你收集整理的python输入数据爬取_python根据用户需求输入想爬取的内容及页数爬取图片方法详解...的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 域名和服务器怎么绑定(服务器绑定域名)
- 下一篇: pythonwhile循环怎么修改数据类