日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python3抓取图片_通过Python3 爬虫抓取漫画图片

發(fā)布時間:2023/12/4 python 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python3抓取图片_通过Python3 爬虫抓取漫画图片 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

引言:

最近閑來無事所以想著學習下python3,看了好長時間的文檔,于是用python3寫了一個漫畫抓取的程序,好了 廢話不多說上碼!

第一步:

準備環(huán)境 和類庫,我用的是python3.5? ? ? 禁用 python2.x !?禁用 python2.x !??禁用 python2.x !

用到的類庫:requests??lxml? bs4??fake_useragent? ? ?pymysql

這里你 pip? 安裝也好或者用pycharm

pycharm 引包位置

第二步:找漫畫網(wǎng)站

先說好本教程僅供學習交流禁止用于商務用途和其他用途

我選了一家相對還不錯的漫畫網(wǎng)站,各位小伙伴沒事可以去看看

傳送門:?https://www.mkzhan.com

第三步: 開始編程了 準備好小伙伴

好了先導包

然后那編輯幾個需要用到的方法

先做一個請求網(wǎng)頁的方法

在這里headers 需要配置一個user-agent,否則很容易就會被對方服務器發(fā)現(xiàn)你是爬蟲那

然后創(chuàng)建一個圖片檢測方法,畢竟圖片損壞了你下載下來也沒用

先抓詳情 來分析下頁面結構

嗯 這是我找出一些有用的信息 ,不過今天我們只用到標題 封面 和章節(jié),然后哪章節(jié)列表舉栗子,先上碼

分析下li 特性 class 里都有一個參數(shù) j-chapter-item 那好 find_all 把符合規(guī)則的拿出來

然后根據(jù)標題創(chuàng)建文件夾,同時根據(jù)封面的頁面規(guī)則 抓到封面的img 放到之前寫好的 get_img 方法里檢測下,然后open 下載下來

剛剛抓好的章節(jié)列表遍歷下,畢竟我們要把每章節(jié)的每張有用圖片下載下來

新建一個章節(jié)的抓取方法

這里要把章節(jié)里的圖片抓取出來

按照上面分析下html結構,根據(jù)規(guī)則做相應的抓取 并將圖片下載到相應的位置

結果:

好了大功告成,代碼雖然很比較low 但畢竟一個初級學員 大神勿噴

相對于想開始嘗試做一下python抓取的同學很合適哦

不多說上源碼 github:傳送門

總結

以上是生活随笔為你收集整理的python3抓取图片_通过Python3 爬虫抓取漫画图片的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。