日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程语言 > python >内容正文

python

python实现简单爬虫抓取图片

發(fā)布時(shí)間:2024/7/23 python 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python实现简单爬虫抓取图片 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

最近在學(xué)習(xí)python,正如大家所知,python在網(wǎng)絡(luò)爬蟲(chóng)方面有著廣泛的應(yīng)用,下面是一個(gè)利用python程序抓取網(wǎng)絡(luò)圖片的簡(jiǎn)單程序,可以批量下載一個(gè)網(wǎng)站更新的圖片,其中使用了代理IP的技術(shù)。

import urllib.request import os import random def url_open(url):req=urllib.request.Request(url)#為請(qǐng)求設(shè)置user-agent,使得程序看起來(lái)更像一個(gè)人類req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64; rv:43.0) Gecko/20100101 Firefox/43.0')#代理IP,使用戶能以不同IP訪問(wèn),從而防止被服務(wù)器發(fā)現(xiàn)'''iplist=['1.193.162.123:8000','1.193.162.91:8000','1.193.163.32:8000']proxy_support=urllib.request.ProxyHandler({'http':random.choice(iplist)})opener=urllib.request.build_opener(proxy_support)opener.addheaders=[('User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/42.0.2311.154 Safari/537.36 LBBROWSER')]urllib.request.install_opener(opener)'''response=urllib.request.urlopen(req)html=response.read()return html def get_page(url):html=url_open(url).decode('utf-8')a=html.find('current-comment-page')+23b=html.find(']',a)#print(html[a:b])return html[a:b]def find_imgs(url):html=url_open(url).decode('utf-8')img_addrs=[]a=html.find('img src=')while a!=-1:b=html.find('.jpg',a,a+140)if b!=-1:if html[a+9]!='h':img_addrs.append('http:'+html[a+9:b+4])else:img_addrs.append(html[a+9:b+4])else:b=a+9a=html.find('img src=',b)for each in img_addrs:print(each+'我的打印')return img_addrsdef save_imgs(folder,img_addrs):for each in img_addrs:#print('one was saved')filename=each.split('/')[-1]with open(filename,'wb') as f:img=url_open(each)f.write(img)def download_mm(folder='ooxx',pages=10):os.mkdir(folder)os.chdir(folder)url="http://jandan.net/ooxx/"page_num=int(get_page(url))for i in range(pages):page_num=page_num-1page_url=url+'page-'+str(page_num)+'#comments'img_addrs=find_imgs(page_url)save_imgs(folder,img_addrs)if __name__=='__main__':download_mm()

完成

運(yùn)行結(jié)果

總結(jié)

以上是生活随笔為你收集整理的python实现简单爬虫抓取图片的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。