日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python下载图片被覆盖了_scrapy 将抓取内容中的图片下载到本地并替换内容中的原始图片...

發(fā)布時間:2024/9/30 python 75 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python下载图片被覆盖了_scrapy 将抓取内容中的图片下载到本地并替换内容中的原始图片... 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

使用scrapy采集的文章里面有很多圖片,都是遠程圖片,我想把這些遠程圖片都下載下來,然后把圖片地址全都改成相對路徑。

我想把里面的圖片都下載到本地,然后再把路徑保存再item 里面。

def parse_article(self, response):

item = response.meta['item']

item['title'] = response.xpath("//div[@id='content']//h1[@class='entry-title']/text()").extract()[0]

article_imgs = response.xpath("//div[@id='content']/article/div[@class='entry-content']//img")

for img in article_imgs:

img_src = img.xpath("/@src").extract()[0]

file_name = os.path.basename(img_src)

real_name = file_name.split('.')[-2]

print("圖片名稱", real_name)

save_path = 'images/shopify/' + str(real_name)

print("保存路徑", save_path)

local_path = self.save_img(img_src, save_path)

http_img_path = urljoin('http://www.tiangr.com', '/wp_content/uploads/' + local_path)

print("替換路徑", http_img_path)

####################

到這里之后不知道該怎么替換原來的圖片路徑。

####################

item['content'] = response.xpath("//div[@id='content']/article/div[@class='entry-content']").extract()[0]

item['cimage_urls'] = response.xpath("//div[@id='content']//header[@class='entry-header']/img//@src").extract() # 提取圖片鏈接

yield item

def save_img(self, img_url, file_name):

"""

保存圖片

:param img_url 圖片地址

:param file_name 文件名稱

:return:

"""

image_path = img_url.split('.')

extension = image_path.pop()

if len(extension) > 3:

extension = 'jpg'

img_url = urljoin('http://dingyue.nosdn.127.net', img_url)

u = urllib.request.urlopen(img_url)

data = u.read()

f = open(file_name + '.' + extension, 'wb')

f.write(data)

f.close()

return file_name + '.' + extension

我在看文檔的時候,看到雖然scrapy有ImagePipeline可以下載圖片,但只能將下載的圖片存到一個字段里。

所以請教一下大家在這種情況下是怎么操作的?

萬分感謝。

總結(jié)

以上是生活随笔為你收集整理的python下载图片被覆盖了_scrapy 将抓取内容中的图片下载到本地并替换内容中的原始图片...的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。