日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Scrapy爬取斗破苍穹漫画

發布時間:2023/12/14 编程问答 43 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Scrapy爬取斗破苍穹漫画 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Scrapy爬取斗破蒼穹漫畫

文章目錄

  • Scrapy爬取斗破蒼穹漫畫
  • 前言
  • 一、創建項目、創建爬蟲
  • 二、實戰
    • 1.items.py如下:
    • 2.settings.py如下:
    • 3.pipelines.py如下:
    • 4.spider.py如下:
  • 三、運行結果
  • 總結


前言

原本想爬取斗羅大陸,項目都創建好了,結果不小心點開了斗破蒼穹,太好看了,沒有辦法便決定爬取斗破蒼穹。附上爬取的網頁地址:https://www.mkzhan.com/49733/

一、創建項目、創建爬蟲

詳細創建請參考之前博客或百度自學。
(創建一個名為douluodalu的項目)
cmd命令:scrapy startproject douluodalu
(創建一個名為spider的爬蟲)
cmd命令:scrapy genspider -t basic spider mkzhan.com

二、實戰

1.items.py如下:

代碼如下(示例):

import scrapyclass DouluodaluItem(scrapy.Item):# define the fields for your item here like:# name = scrapy.Field()title = scrapy.Field()img = scrapy.Field()url = scrapy.Field()

2.settings.py如下:

代碼如下(示例):
修改以下部分

# Configure item pipelines # See https://docs.scrapy.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = {'huaqiangu.pipelines.HuaqianguPipeline': 300, }

3.pipelines.py如下:

這里對獲得到的圖片的url進行爬取,保存到本地文件夾下:

代碼如下(示例):

import os import requests import sysclass DouluodaluPipeline:def process_item(self, item, spider):try:path = './{}'.format(item['title'][0])os.mkdir(path)#創建一個目錄名是爬取的漫畫章節#目錄下保存漫畫for j in range(len(item['img'])):content3 = requests.get(url=item['img'][j])with open(file=path + '/{}.jpg'.format(j + 1), mode='wb') as f:f.write(content3.content)f.close()except:print('已經存在相同的文件夾了,程序無法在繼續進行!')sys.exit()

4.spider.py如下:

代碼如下(示例):

import scrapy from douluodalu.items import DouluodaluItem import re from scrapy.http import Requestclass SpiderSpider(scrapy.Spider):name = 'spider'allowed_domains = ['mkzhan.com']start_urls = ['https://www.mkzhan.com/49733/']def parse(self, response):item = DouluodaluItem()#獲取所有章節的urlurl_all = []for j in response.xpath("//a[@class='j-chapter-link']/@data-hreflink").extract():url_all.append("https://www.mkzhan.com" + j)url_all.reverse()#列表逆序item['url'] = url_all# print(item['title'])# print(item['url'])#進行回調函數for x in range(len(item['url'])):yield scrapy.Request(item['url'][x], callback=self.parse1)#獲取漫畫的地址和標題def parse1(self, response):item = DouluodaluItem()item['img'] = response.xpath("//img[@class='lazy-read']/@data-src").extract()item['title'] = response.xpath("//a[@class='last-crumb']/text()").extract()yield item# print(item['img'])# print(item['title'])

三、運行結果


總結

最后雖然爬取漫畫成功,但是運行后我覺得是比較慢的,大概等了十幾分鐘爬取完。
我們在使用scrapy運行爬蟲的時候有兩種方法。
第一種是在命令行輸入:scrapy crawl 爬蟲名
第二種是創建一個.py文件:(輸入下面代碼)

from scrapy import cmdline cmdline.execute('scrapy crawl spider --nolog'.split())

本人之前用cmd命令已經崩潰了,強烈推薦大家使用第二種方式,簡直是太舒服了。

總結

以上是生活随笔為你收集整理的Scrapy爬取斗破苍穹漫画的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 一区二区三区四区在线免费观看 | 老司机福利院 | 成人超碰在线 | 久久99影院 | 国产精品99久久久久久久久久久久 | av不卡一区二区 | 青青草社区 | 黄色美女一级片 | www日本黄色 | 美女的奶胸大爽爽大片 | www国产精品视频 | 免费国产羞羞网站视频 | 天天操夜夜草 | 久久精品操 | 欧美在线不卡视频 | 激情文学亚洲 | 奇米在线777 | 春色激情 | 国产一区二区三区影视 | 国产视频资源 | 尤物视频在线观看国产性感 | 亚洲50p| 亚洲欧美国产精品专区久久 | 91鲁| 欧美超碰在线 | √天堂资源地址在线官网 | 亚洲av无码一区二区三区网站 | 日韩中文一区二区 | 亚洲图片激情小说 | 光溜溜视频素材大全美女 | 久草小说 | 美女av一区二区 | 91av久久| 潘金莲一级淫片aaaaaa播放 | 夜夜嗨视频 | 久久精品一区二区三区四区 | 天天做夜夜做 | 亚洲视频一区 | 女生和男生一起插插插 | 成人漫画网站 | 亚洲精品永久免费 | 国产日产久久高清欧美一区 | 久久久久亚洲AV成人无码国产 | 国产一区二区三区久久久 | 欧美一级视频免费 | 国产做爰xxxⅹ性视频国 | 国产伦精品一区二区三区视频孕妇 | 黑人vs亚洲人在线播放 | 99精品视频在线免费观看 | 粗喘呻吟撞击猛烈疯狂 | 日本少妇激三级做爰在线 | 一吻定情2013日剧 | 日韩中文在线一区 | 精品黄色在线观看 | 日韩片在线观看 | 亚洲国产精品久久久久久久 | 午夜写真片福利电影网 | 麻豆黄色网址 | 天天干天天摸天天操 | 亚洲大片免费看 | 蜜桃精品在线 | 玩弄丰满少妇xxxxx性多毛 | 深夜福利久久 | 成人综合网站 | 宅男av在线| av香港经典三级级 在线 | 亚洲高清色图 | 亚洲春色一区二区三区 | 五月天久久久久久 | 黄色片aaa| 丁香六月激情综合 | 日韩精品一区二区三区av | 日本一区二区三区视频在线观看 | 亚洲精品天堂网 | 成人av免费 | 激情xxxx | 国产中文字幕在线视频 | 欧美三日本三级少妇三99 | 精品丰满少妇一区二区三区 | 91日韩欧美 | 日日天天干 | 国产这里只有精品 | 老司机午夜免费精品视频 | 激情综| 中文字幕影院 | 男女午夜免费视频 | 美女露胸无遮挡 | 911av| 日韩一区二区三区四区五区 | 无码人妻精品一区二区蜜桃网站 | 国产欧美在线 | 九九色综合网 | 国产男女视频在线观看 | 国产一区二区在线播放视频 | 我和我的太阳泰剧在线观看泰剧 | 久操热| 黄色一级一级 | 成人a级大片 | 色视频免费看 |