日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬取百度贴吧xpath_爬虫基础系列xpath实战——爬取百度贴吧图片(3)

發布時間:2024/10/6 python 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬取百度贴吧xpath_爬虫基础系列xpath实战——爬取百度贴吧图片(3) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

8586231_192932724000_2.jpg

#百度貼吧圖片爬蟲

# 爬取步驟:1.基礎設置,2.構造url,3.爬取頁面,4.解析頁面,5.保存頁面

# 采取urllib爬取

#引入必要的包

import urllib

import urllib.request

from lxml import etree

#定義一個類存入必要的基礎數據

class Spider():

def __init__(self):

self.beginpage=1

self.endpage=3

self.tiebaname='java'

self.url="http://tieba.baidu.com/f?"

self.headers={"User-Agent" : "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1 Trident/5.0;"}

self.filename=1

#定義構造url的函數

def tiebaSpider(self):#駝峰命名法

for i in range(self.beginpage,self.endpage+1):

#分析網頁

#第二頁http://tieba.baidu.com/f?kw=java&ie=utf-8&pn=50

#第三頁http://tieba.baidu.com/f?kw=java&ie=utf-8&pn=100

#構造get請求參數

pn=(i-1)*50

wd={'pn':pn , 'kw':self.tiebaname}

word=urllib.parse.urlencode(wd)

#拼接完整的url

urll=self.url+word

#調用爬取頁面函數

self.loadPage(urll)

#定義爬取頁面url

def loadPage(self,url):

response=urllib.request.Request(url,headers=self.headers)

data=urllib.request.urlopen(response).read()#返回2進制形式的頁面信息

# print(data)

#用xpath前期處理出鏈接信息拼接帖子的地址

html=etree.HTML(data)

#

#

# 剛來公司跟不上啊,怎么辦呢,又沒有大佬分享一下經驗

links=html.xpath('//div[@class="threadlist_lz clearfix"]/div/a/@href')

for link in links:

# print(link)

#拼接url

link="http://tieba.baidu.com"+link

# 調用解析頁面函數

self.loadImage(link)

#定義圖片解析鏈接的函數

def loadImage(self,link):

req=urllib.request.Request(link,headers=self.headers)

data1=urllib.request.urlopen(req).read()

html=etree.HTML(data1)

#用xpath表達式解析出圖片

#其中一個圖片的網頁信息

#

imagelinks=html.xpath('//img[@class="BDE_Image"]/@src')

for imagelink in imagelinks:

#調用保存圖片函數,將解析出的圖片存入本地

self.writeImage(imagelink)

def writeImage(self,imagelink):

print("正在保存圖片",self.filename,"-------------------")

image=urllib.request.urlopen(imagelink).read()

with open(r"E:\img\\"+str(self.filename)+".jpg","wb") as f:

f.write(image)

self.filename+=1

#最后調用執行整個代碼

if __name__=='__main__':

spider=Spider()

spider.tiebaSpider()

......

正在保存圖片 137 -------------------

正在保存圖片 138 -------------------

正在保存圖片 139 -------------------

正在保存圖片 140 -------------------

正在保存圖片 141 -------------------

正在保存圖片 142 -------------------

正在保存圖片 143 -------------------

......

總結

以上是生活随笔為你收集整理的python爬取百度贴吧xpath_爬虫基础系列xpath实战——爬取百度贴吧图片(3)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 日日日操操操 | 亚洲av无一区二区三区怡春院 | aa视频在线 | 可以直接看的无码av | 在线播放亚洲精品 | 99re只有精品 | 91传媒在线播放 | 久久综合在线 | 久久亚洲精精品中文字幕早川悠里 | 亚洲国产欧美日韩在线 | 亚洲乱码精品久久久久 | 超污巨黄的小短文 | av一二三四区 | 在线免费观看a视频 | 日批免费在线观看 | 美女xx00 | 91国模少妇一区二区三区 | 女人下面喷水视频 | 岛国片在线免费观看 | 在线一区二区不卡 | 超碰777| 国产a级精品 | 污片免费网站 | 久草福利在线视频 | 日本一区二区三区在线观看视频 | 69堂精品| www污污| 激情av| 91免费播放 | 另类性姿势bbwbbw | 欧美色xxxx | 久草网视频在线观看 | 四虎色播 | 成人先锋av| 亚洲激情第一页 | 91精品啪| 老牛影视av老牛影视av | 91黄色看片 | 91猎奇在线观看 | 黑人粗进入欧美aaaaa | 日韩av中字 | 你懂的在线播放 | av官网在线 | 五月天久久综合 | 亚洲热在线观看 | 炕上如狼似虎的呻吟声 | 在线中文字幕第一页 | 欧美激情在线免费 | 免费欧美一级视频 | 午夜精彩视频 | 老司机午夜性大片 | 求免费黄色网址 | 九九这里只有精品视频 | 巨大黑人极品videos精品 | 亚洲涩涩爱| 久久av网 | 91麻豆精品国产91久久久久久久久 | 国产精品麻豆视频 | 美日韩一区二区三区 | 操她视频在线观看 | 天天干夜夜草 | 四虎永久在线视频 | 亚洲午夜视频在线观看 | 国产精品尤物 | 成人涩涩 | a级全黄 | 亚洲日本中文字幕 | 金瓶狂野欧美性猛交xxxx | 成人午夜免费视频 | 萌白酱在线观看 | 韩国一区二区三区视频 | 中文第一页 | 国产精品美女www爽爽爽 | 精品视频久久久久久久 | 黄色一级大片在线免费看国产一 | 国产视频xxxx | 91婷婷射| 91片黄在线观看 | 亚洲另类av | 国产九九热| 中文字字幕在线中文乱码电影 | 黄色网页免费观看 | 亚洲の无码国产の无码步美 | 日韩在线欧美在线 | 欧美巨乳美女 | 婷婷深爱网 | 奇米狠狠去啦 | 欧美在线观看不卡 | 和黑帮大佬的365 | 女人18岁毛片 | 九七影院在线观看免费观看电视 | 国产一区二区在线精品 | 国产主播一区 | 黄黄的视频在线观看 | 在线播放亚洲精品 | 天天操天天操天天射 | 亚洲视频免费看 | 97精品久久久 | 日韩精品网|