日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

PYTHON系列-从零开始的爬虫入门指南

發布時間:2025/4/5 python 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 PYTHON系列-从零开始的爬虫入门指南 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

入門
0.準備工作

需要準備的東西: Python、scrapy、一個IDE或者隨便什么文本編輯工具。

1.技術部已經研究決定了,你來寫爬蟲。

隨便建一個工作目錄,然后用命令行建立一個工程,工程名為miao,可以替換為你喜歡的名字。

1
scrapy startproject miao

隨后你會得到如下的一個由scrapy創建的目錄結構

從零開始的爬蟲入門指南
在spiders文件夾中創建一個python文件,比如miao.py,來作為爬蟲的腳本。

內容如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import scrapy

class NgaSpider(scrapy.Spider):

name = "NgaSpider" host = "http://bbs.ngacn.cc/" # start_urls是我們準備爬的初始頁 start_urls = ["http://bbs.ngacn.cc/thread.php?fid=406", ]# 這個是解析函數,如果不特別指明的話,scrapy抓回來的頁面會由這個函數進行解析。 # 對頁面的處理和分析工作都在此進行,這個示例里我們只是簡單地把頁面內容打印出來。 def parse(self, response):print response.body

2.跑一個試試?

如果用命令行的話就這樣:

1
2
cd miao
scrapy crawl NgaSpider

你可以看到爬蟲君已經把你壇星際區第一頁打印出來了,當然由于沒有任何處理,所以混雜著html標簽和js腳本都一并打印出來了。

解析
接下來我們要把剛剛抓下來的頁面進行分析,從這坨html和js堆里把這一頁的帖子標題提煉出來。

其實解析頁面是個體力活,方法多的是,這里只介紹xpath。

0.為什么不試試神奇的xpath呢

看一下剛才抓下來的那坨東西,或者用chrome瀏覽器手動打開那個頁面然后按F12可以看到頁面結構。

每個標題其實都是由這么一個html標簽包裹著的。舉個例子:

1
<a id="t_tt1_33" class="topic" href="/read.php?tid=10803874">[合作模式] 合作模式修改設想</a>

可以看到href就是這個帖子的地址(當然前面要拼上論壇地址),而這個標簽包裹的內容就是帖子的標題了。

于是我們用xpath的絕對定位方法,把class=’topic’的部分摘出來。

1.看看xpath的效果

在最上面加上引用:

1
from scrapy import Selector

把parse函數改成:

1
2
3
4
5
6
7
8
9
10
11
12
13
def parse(self, response):

selector = Selector(response)# 在此,xpath會將所有class=topic的標簽提取出來,當然這是個list# 這個list里的每一個元素都是我們要找的html標簽content_list = selector.xpath("//*[@class='topic']")# 遍歷這個list,處理每一個標簽for content in content_list:# 此處解析標簽,提取出我們需要的帖子標題。topic = content.xpath('string(.)').extract_first()print topic# 此處提取出帖子的url地址。url = self.host + content.xpath('@href').extract_first()print url

再次運行就可以看到輸出你壇星際區第一頁所有帖子的標題和url了。

遞歸
接下來我們要抓取每一個帖子的內容。

這里需要用到python的yield。

1
yield Request(url=url, callback=self.parse_topic)

此處會告訴scrapy去抓取這個url,然后把抓回來的頁面用指定的parse_topic函數進行解析。

至此我們需要定義一個新的函數來分析一個帖子里的內容。

完整的代碼如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
import scrapy
from scrapy import Selector
from scrapy import Request

class NgaSpider(scrapy.Spider):

name = "NgaSpider" host = "http://bbs.ngacn.cc/" # 這個例子中只指定了一個頁面作為爬取的起始url # 當然從數據庫或者文件或者什么其他地方讀取起始url也是可以的 start_urls = ["http://bbs.ngacn.cc/thread.php?fid=406", ]# 爬蟲的入口,可以在此進行一些初始化工作,比如從某個文件或者數據庫讀入起始url def start_requests(self):for url in self.start_urls:# 此處將起始url加入scrapy的待爬取隊列,并指定解析函數# scrapy會自行調度,并訪問該url然后把內容拿回來yield Request(url=url, callback=self.parse_page)# 版面解析函數,解析一個版面上的帖子的標題和地址 def parse_page(self, response):selector = Selector(response)content_list = selector.xpath("//*[@class='topic']")for content in content_list:topic = content.xpath('string(.)').extract_first()print topicurl = self.host + content.xpath('@href').extract_first()print url# 此處,將解析出的帖子地址加入待爬取隊列,并指定解析函數yield Request(url=url, callback=self.parse_topic)# 可以在此處解析翻頁信息,從而實現爬取版區的多個頁面# 帖子的解析函數,解析一個帖子的每一樓的內容 def parse_topic(self, response):selector = Selector(response)content_list = selector.xpath("//*[@class='postcontent ubbcode']")for content in content_list:content = content.xpath('string(.)').extract_first()print content# 可以在此處解析翻頁信息,從而實現爬取帖子的多個頁面

到此為止,這個爬蟲可以爬取你壇第一頁所有的帖子的標題,并爬取每個帖子里第一頁的每一層樓的內容。

爬取多個頁面的原理相同,注意解析翻頁的url地址、設定終止條件、指定好對應的頁面解析函數即可。

Pipelines——管道
此處是對已抓取、解析后的內容的處理,可以通過管道寫入本地文件、數據庫。

0.定義一個Item

在miao文件夾中創建一個items.py文件。

1
2
3
4
5
6
7
8
9
10
11
12
from scrapy import Item, Field

class TopicItem(Item):

url = Field() title = Field() author = Field()

class ContentItem(Item):

url = Field() content = Field() author = Field()

此處我們定義了兩個簡單的class來描述我們爬取的結果。

  • 寫一個處理方法
  • 在miao文件夾下面找到那個pipelines.py文件,scrapy之前應該已經自動生成好了。

    我們可以在此建一個處理方法。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    from scrapy import Item, Field

    class TopicItem(Item):

    url = Field() title = Field() author = Field()

    class ContentItem(Item):

    url = Field() content = Field() author = Field()

    2.在爬蟲中調用這個處理方法。

    要調用這個方法我們只需在爬蟲中調用即可,例如原先的內容處理函數可改為:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    def parse_topic(self, response):

    selector = Selector(response)content_list = selector.xpath("//*[@class='postcontent ubbcode']")for content in content_list:content = content.xpath('string(.)').extract_first()## 以上是原內容## 創建個ContentItem對象把我們爬取的東西放進去item = ContentItem()item["url"] = response.urlitem["content"] = contentitem["author"] = "" ## 略## 這樣調用就可以了## scrapy會把這個item交給我們剛剛寫的FilePipeline來處理yield item

    3.在配置文件里指定這個pipeline

    找到settings.py文件,在里面加入

    1
    2
    3
    ITEM_PIPELINES = {

    'miao.pipelines.FilePipeline': 400,}

    這樣在爬蟲里調用

    1
    yield item

    的時候都會由經這個FilePipeline來處理。后面的數字400表示的是優先級。

    可以在此配置多個Pipeline,scrapy會根據優先級,把item依次交給各個item來處理,每個處理完的結果會傳遞給下一個pipeline來處理。

    可以這樣配置多個pipeline:

    1
    2
    3
    4
    5
    6
    7
    ITEM_PIPELINES = {

    'miao.pipelines.Pipeline00': 400,'miao.pipelines.Pipeline01': 401,'miao.pipelines.Pipeline02': 402,'miao.pipelines.Pipeline03': 403,## ...}

    Middleware——中間件
    通過Middleware我們可以對請求信息作出一些修改,比如常用的設置UA、代理、登錄信息等等都可以通過Middleware來配置。

    0.Middleware的配置

    與pipeline的配置類似,在setting.py中加入Middleware的名字,例如

    1
    2
    3
    4
    DOWNLOADER_MIDDLEWARES = {

    "miao.middleware.UserAgentMiddleware": 401,"miao.middleware.ProxyMiddleware": 402,}

    1.破網站查UA, 我要換UA

    某些網站不帶UA是不讓訪問的。

    在miao文件夾下面建立一個middleware.py

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    import random

    agents = [

    "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/532.5 (KHTML, like Gecko) Chrome/4.0.249.0 Safari/532.5", "Mozilla/5.0 (Windows; U; Windows NT 5.2; en-US) AppleWebKit/532.9 (KHTML, like Gecko) Chrome/5.0.310.0 Safari/532.9", "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US) AppleWebKit/534.7 (KHTML, like Gecko) Chrome/7.0.514.0 Safari/534.7", "Mozilla/5.0 (Windows; U; Windows NT 6.0; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.601.0 Safari/534.14", "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/10.0.601.0 Safari/534.14", "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.20 (KHTML, like Gecko) Chrome/11.0.672.2 Safari/534.20", "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.27 (KHTML, like Gecko) Chrome/12.0.712.0 Safari/534.27", "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.24 Safari/535.1",

    ]

    class UserAgentMiddleware(object):

    def process_request(self, request, spider):agent = random.choice(agents)request.headers["User-Agent"] = agent

    這里就是一個簡單的隨機更換UA的中間件,agents的內容可以自行擴充。

    2.破網站封IP,我要用代理

    比如本地127.0.0.1開啟了一個8123端口的代理,同樣可以通過中間件配置讓爬蟲通過這個代理來對目標網站進行爬取。

    同樣在middleware.py中加入:

    1
    2
    3
    4
    5
    6
    7
    class ProxyMiddleware(object):

    def process_request(self, request, spider):# 此處填寫你自己的代理# 如果是買的代理的話可以去用API獲取代理列表然后隨機選擇一個proxy = "http://127.0.0.1:8123"request.meta["proxy"] = proxy

    很多網站會對訪問次數進行限制,如果訪問頻率過高的話會臨時禁封IP。

    如果需要的話可以從網上購買IP,一般服務商會提供一個API來獲取當前可用的IP池,選一個填到這里就好。

    一些常用配置
    在settings.py中的一些常用配置

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18

    間隔時間,單位秒。指明scrapy每兩個請求之間的間隔。

    DOWNLOAD_DELAY = 5

    當訪問異常時是否進行重試

    RETRY_ENABLED = True

    當遇到以下http狀態碼時進行重試

    RETRY_HTTP_CODES = [500, 502, 503, 504, 400, 403, 404, 408]

    重試次數

    RETRY_TIMES = 5

    Pipeline的并發數。同時最多可以有多少個Pipeline來處理item

    CONCURRENT_ITEMS = 200

    并發請求的最大數

    CONCURRENT_REQUESTS = 100

    對一個網站的最大并發數

    CONCURRENT_REQUESTS_PER_DOMAIN = 50

    對一個IP的最大并發數

    CONCURRENT_REQUESTS_PER_IP = 50

    我就是要用Pycharm

    如果非要用Pycharm作為開發調試工具的話可以在運行配置里進行如下配置:

    Configuration頁面:

    Script填你的scrapy的cmdline.py路徑,比如我的是

    1
    /usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py

    然后在Scrpit parameters中填爬蟲的名字,本例中即為:

    1
    crawl NgaSpider

    最后是Working diretory,找到你的settings.py文件,填這個文件所在的目錄。

    示例:

    從零開始的爬蟲入門指南
    按小綠箭頭就可以愉快地調試了。

    總結

    以上是生活随笔為你收集整理的PYTHON系列-从零开始的爬虫入门指南的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。