日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程语言 > python >内容正文

python

Python 爬取百度图片的高清原图

發(fā)布時(shí)間:2024/3/26 python 40 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python 爬取百度图片的高清原图 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
# coding=utf-8 """ 爬取百度圖片的高清原圖 Author : MirrorMan Created : 2017-11-10 """ import re import urllib import os import requestsdef get_onepage_urls(onepageurl):if not onepageurl:print('執(zhí)行結(jié)束')return [], ''try:html = requests.get(onepageurl).textexcept Exception as e:print(e)pic_urls = []fanye_url = ''return pic_urls, fanye_urlpic_urls = re.findall('"objURL":"(.*?)",', html, re.S)html = requests.get(onepageurl)html.encoding = 'utf-8'content = html.textfanye_urls = re.findall(re.compile(r'<a href="(.*)" class="n">下一頁(yè)</a>'), content, flags=0)fanye_url = 'http://image.baidu.com' + fanye_urls[0] if fanye_urls else ''return pic_urls, fanye_urldef down_pic(pic_urls, localPath):if not os.path.exists(localPath): # 新建文件夾os.mkdir(localPath)"""給出圖片鏈接列表, 下載圖片"""for i, pic_url in enumerate(pic_urls):try:pic = requests.get(pic_url, timeout=15)string = str(i + 1) + '.jpg'with open(localPath + '%d.jpg' % i, 'wb')as f:f.write(pic.content)print('成功下載第%s張圖片: %s' % (str(i + 1), str(pic_url)))except Exception as e:print('下載第%s張圖片時(shí)失敗: %s' % (str(i + 1), str(pic_url)))print(e)continueif __name__ == '__main__':keyword = '鳴人' # 關(guān)鍵詞, 改為你想輸入的詞即可, 相當(dāng)于在百度圖片里搜索一樣url_init_first = r'http://image.baidu.com/search/flip?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq=1497491098685_R&pv=&ic=0&nc=1&z=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&ctd=1497491098685%5E00_1519X735&word='url_init = url_init_first + urllib.parse.quote(keyword, safe='/')all_pic_urls = []onepage_urls, fanye_url = get_onepage_urls(url_init)all_pic_urls.extend(onepage_urls)fanye_count = 1 # 圖片所在頁(yè)數(shù),下載完后調(diào)整這里就行while 1:onepage_urls, fanye_url = get_onepage_urls(fanye_url)fanye_count += 1print('第%s頁(yè)' % fanye_count)if fanye_url == '' and onepage_urls == []:breakall_pic_urls.extend(onepage_urls)down_pic(list(set(all_pic_urls)), r'C:\Users\41174\AppData\Local\Temp\change.py\shrinkImage\\') # 保存位置也可以修改

參考:https://blog.csdn.net/xiligey1/article/details/73321152

總結(jié)

以上是生活随笔為你收集整理的Python 爬取百度图片的高清原图的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。