日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬虫抓取淘宝图片

發(fā)布時間:2024/1/1 python 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬虫抓取淘宝图片 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

訓練模型需要data,于是從網(wǎng)上抓取相關(guān)圖片集,之后進行篩選標注。

import urllib.request import rekeyword = '騷豬'#定義搜索關(guān)鍵字 keyword = urllib.request.quote(keyword)#對關(guān)鍵字編碼headers = ('User-Agent',"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36") opener = urllib.request.build_opener() opener.addheaders = [headers] urllib.request.install_opener(opener)for i in range(0, 20):#設(shè)定爬取頁數(shù)0到20頁#淘寶搜索頁面規(guī)律url = 'https://s.taobao.com/search?q='+keyword+'&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306&bcoffset=4&ntoffset=4&p4ppushleft=1%2C48&s='+str(i*44)data = urllib.request.urlopen(url).read().decode('utf-8', 'ignore')pat = 'pic_url":"//(.*?)"'imagelist = re.compile(pat).findall(data)for j in range(0, len(imagelist)):thisimage = imagelist[j]thisurl = 'http://'+thisimagefile = 'E:/datatb/tshirt/tshirt'+str(i)+str(j)+'.jpg'#保存圖片位置urllib.request.urlretrieve(thisurl,file)

建議一次獲取頁面不要太多,不然會請求失敗。

總結(jié)

以上是生活随笔為你收集整理的python爬虫抓取淘宝图片的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。