日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python 下载图片损坏_爬虫爬取出的图片下载出错,图片文件直接损坏

發布時間:2025/3/21 python 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python 下载图片损坏_爬虫爬取出的图片下载出错,图片文件直接损坏 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

import requests

import os, sys, stat

from lxml import etree

import time

class HuangMan():

def __init__(self):

#設置請求頭

self.headers = {'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36'}

self.url_list = []

self.Hman_url_list = []

self.Hman_name_list = []

def get_url_list(self):

#這里是設置爬取到第3頁,想要更多的話請自行更改

url = "http://www.93qoqo.com/artlist/27-%d.html"

for i in range(2,4):

#獲取第2到3頁的url

self.url_list.append(url % i)

#由于第一頁網址不同,所以單獨寫一個獲取函數

def start_1(self):

url_1 = "http://www.93qoqo.com/artlist/27.html"

response = requests.get(url_1, headers = self.headers).content.decode('utf-8')

html = etree.HTML(response)

result = html.xpath('//ul/li[@class="name"]/a')

for i in range(len(result)):

#獲取result的屬性

shuxing = result[i].attrib

#獲取url

self.Hman_url_list.append("http://www.93qoqo.com" + shuxing.get('href'))

#獲取名字

self.Hman_name_list.append(shuxing.get('title'))

print("正在爬取第1頁的網站信息")

time.sleep(2)

#從第二頁開始爬取信息

def start(self):

self.start_1()

self.get_url_list()

for url in self.url_list:

response = requests.get(url, headers = self.headers).content.decode('utf-8')

html = etree.HTML(response)

result = html.xpath('//ul/li[@class="name"]/a')

for i in range(len(result)):

#獲取result的屬性

shuxing = result[i].attrib

#獲取url

self.Hman_url_list.append("http://www.93qoqo.com" + shuxing.get('href'))

#獲取名字

self.Hman_name_list.append(result[i].text)

print("正在爬取第%d頁的網站信息" % (self.url_list.index(url) + 2))

time.sleep(2)

self.wenjian()

self.main()

def wenjian(self):

#創建文件夾

if os.path.exists("photo") == False:

os.makedirs("photo")

os.chmod("photo", stat.S_IWRITE)

os.chdir("photo")

else:

print("文件已經存在")

def main(self):

for url in self.Hman_url_list:

response = requests.get(url, headers = self.headers).content.decode('utf-8')

html = etree.HTML(response)

result = html.xpath('//center/div[@class="t_msgfont"]/img')

print(self.Hman_name_list[self.Hman_url_list.index(url)])

for i in range(len(self.Hman_name_list)):

#創建次級文件夾用于存放圖片

f = os.makedirs(self.Hman_name_list[i])

os.chmod(self.Hman_name_list[i], stat.S_IWRITE)

print("正在創建文件夾")

for e in range(len(result)):

print("下載圖片中。。。請稍等片刻")

name ="%d.jpg" % e

#請求圖片

respomse=requests.get(url,headers=self.headers)

#下載

with open(os.path.join(self.Hman_name_list[i],name),mode='wb') as f:

f.write(respomse.content)

if __name__ == "__main__":

h = HuangMan()

h.start()

總結

以上是生活随笔為你收集整理的python 下载图片损坏_爬虫爬取出的图片下载出错,图片文件直接损坏的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。