日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬虫淘宝评论图片_简单的抓取淘宝图片的Python爬虫

發布時間:2023/12/9 python 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬虫淘宝评论图片_简单的抓取淘宝图片的Python爬虫 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

寫了一個抓taobao圖片的爬蟲,全是用if,for,while寫的,比較簡陋,入門作品。

# -*- coding: cp936 -*-

import urllib2

import urllib

mmurl="http://mm.taobao.com/json/request_top_list.htm?type=0&page="

i=0#第二頁有個人的頁面沒圖片,會出現IO錯誤

while i<15:

url=mmurl+str(i)

#print url #打印出列表的url

up=urllib2.urlopen(url)#打開頁面,存入句柄中

cont=up.read()

#print len(cont)#頁面的長度

ahref=‘

pa=cont.find(ahref)#找出網頁鏈接的頭部位置

pt=cont.find(target,pa)#找出網頁鏈接的尾部位置

for a in range(0,20):#如才能不把20硬編碼進去?如何找到文件結尾?

urlx=cont[pa+len(ahref)-4:pt-2]#從頭部到尾部,將網頁鏈接存入變量

if len(urlx) < 60:#如果網頁鏈接長度適合【len()!!!!】

urla=urlx???? #那么就準備將其打印出來

print urla??? #這是想要的model個人URL

#########以下開始對model個人的URL進行操作#########

mup=urllib2.urlopen(urla)#打開model個人的頁面,存入句柄中

mcont=mup.read()#對model頁面的句柄進行讀出操作,存入mcont字符串

??????????????????? imgh="

iph=mcont.find(imgh)#找出【圖片】鏈接的頭部位置

ipt=mcont.find(imgt,iph)#找出【圖片】鏈接的尾部位置

for b in range(0,10):#又是硬編碼····

mpic=mcont[iph:ipt+len(imgt)]#原始圖片鏈接,鏈接字符的噪聲太大

iph1=mpic.find("http")#對上面的鏈接再過濾一次

ipt1=mpic.find(imgt)? #同上

picx=mpic[iph1:ipt1+len(imgt)]

if len(picx)<150:#仍有一些URL是“http:ss.png>.jpg”(設為100竟然會誤傷)

pica=picx #【是len(picx)<100而不是picx!!】不然會不顯示

print pica

############################

###########開始下載pica這個圖片

urllib.urlretrieve(pica,"pic\\tb"+str(i)+"x"+str(a)+"x"+str(b)+".jpg")

###########?? pica圖片下載完畢.(加上各循環體的數字,以免名字重復)

############################

iph=mcont.find(imgh,iph+len(imgh))#開始下一個循環

ipt=mcont.find(imgt,iph)

############model個人URL內的【圖片鏈接】提取完畢##########

pa=cont.find(ahref,pa+len(ahref))#將原來的頭部位作為起始點,繼續向后找下一個頭部

pt=cont.find(target,pa)#繼續找下一個尾部

i+=1

是不是很簡單呢,小伙伴們稍微修改下就可以抓取其他內容了的。。。

原文:http://www.jb51.net/article/58947.htm

總結

以上是生活随笔為你收集整理的python爬虫淘宝评论图片_简单的抓取淘宝图片的Python爬虫的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。