日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

2020年8个效率最高的爬虫框架

發(fā)布時(shí)間:2024/7/5 编程问答 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 2020年8个效率最高的爬虫框架 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

一些較為高效的Python爬蟲框架。分享給大家。

1.Scrapy

Scrapy是一個(gè)為了爬取網(wǎng)站數(shù)據(jù),提取結(jié)構(gòu)性數(shù)據(jù)而編寫的應(yīng)用框架。 可以應(yīng)用在包括數(shù)據(jù)挖掘,信息處理或存儲(chǔ)歷史數(shù)據(jù)等一系列的程序中。。用這個(gè)框架可以輕松爬下來如亞馬遜商品信息之類的數(shù)據(jù)。

項(xiàng)目地址:https://scrapy.org/

2.PySpider

pyspider 是一個(gè)用python實(shí)現(xiàn)的功能強(qiáng)大的網(wǎng)絡(luò)爬蟲系統(tǒng),能在瀏覽器界面上進(jìn)行腳本的編寫,功能的調(diào)度和爬取結(jié)果的實(shí)時(shí)查看,后端使用常用的數(shù)據(jù)庫進(jìn)行爬取結(jié)果的存儲(chǔ),還能定時(shí)設(shè)置任務(wù)與任務(wù)優(yōu)先級(jí)等。

項(xiàng)目地址:https://github.com/binux/pyspider

3.Crawley

Crawley可以高速爬取對(duì)應(yīng)網(wǎng)站的內(nèi)容,支持關(guān)系和非關(guān)系數(shù)據(jù)庫,數(shù)據(jù)可以導(dǎo)出為JSON、XML等。

項(xiàng)目地址:http://project.crawley-cloud.com/

4.Portia

Portia是一個(gè)開源可視化爬蟲工具,可讓您在不需要任何編程知識(shí)的情況下爬取網(wǎng)站!簡(jiǎn)單地注釋您感興趣的頁面,Portia將創(chuàng)建一個(gè)蜘蛛來從類似的頁面提取數(shù)據(jù)。

項(xiàng)目地址:https://github.com/scrapinghub/portia

5.Newspaper

Newspaper可以用來提取新聞、文章和內(nèi)容分析。使用多線程,支持10多種語言等。

項(xiàng)目地址:https://github.com/codelucas/newspaper

6.Beautiful Soup

Beautiful Soup 是一個(gè)可以從HTML或XML文件中提取數(shù)據(jù)的Python庫.它能夠通過你喜歡的轉(zhuǎn)換器實(shí)現(xiàn)慣用的文檔導(dǎo)航,查找,修改文檔的方式.Beautiful Soup會(huì)幫你節(jié)省數(shù)小時(shí)甚至數(shù)天的工作時(shí)間。

項(xiàng)目地址:https://www.crummy.com/software/BeautifulSoup/bs4/doc/

7.Grab

Grab是一個(gè)用于構(gòu)建Web刮板的Python框架。借助Grab,您可以構(gòu)建各種復(fù)雜的網(wǎng)頁抓取工具,從簡(jiǎn)單的5行腳本到處理數(shù)百萬個(gè)網(wǎng)頁的復(fù)雜異步網(wǎng)站抓取工具。Grab提供一個(gè)API用于執(zhí)行網(wǎng)絡(luò)請(qǐng)求和處理接收到的內(nèi)容,例如與HTML文檔的DOM樹進(jìn)行交互。

項(xiàng)目地址:http://docs.grablib.org/en/latest/#grab-spider-user-manual

8.Cola

Cola是一個(gè)分布式的爬蟲框架,對(duì)于用戶來說,只需編寫幾個(gè)特定的函數(shù),而無需關(guān)注分布式運(yùn)行的細(xì)節(jié)。任務(wù)會(huì)自動(dòng)分配到多臺(tái)機(jī)器上,整個(gè)過程對(duì)用戶是透明的。

項(xiàng)目地址:https://github.com/chineking/cola

Python爬蟲:常用的爬蟲工具匯總


將工具按照以上分類說明,按照學(xué)習(xí)路線順序給出參考文章

一、頁面下載器

  • requests(必學(xué))
  • python爬蟲入門requests模塊
  • Python爬蟲:requests庫基本使用
  • Python爬蟲:使用requests庫下載大文件
  • Python爬蟲:requests多進(jìn)程爬取貓眼電影榜單
  • requests InsecureRequestWarning: Unverified HTTPS request is being made.

  • scrapy
  • Python網(wǎng)絡(luò)爬蟲之scrapy框架
  • scrapy學(xué)習(xí)
  • Python爬蟲:關(guān)于scrapy模塊的請(qǐng)求頭
  • Python爬蟲:scrapy框架請(qǐng)求參數(shù)meta、headers、cookies一探究竟
  • Python爬蟲:scrapy輔助功能實(shí)用函數(shù)
  • selenium+chrome + PhantomJS(抓取動(dòng)態(tài)網(wǎng)頁,不推薦)
  • mac下安裝selenium+phantomjs+chromedriver
  • Python爬蟲:selenium模塊基本使用
  • Python爬蟲selenium模塊
  • Python爬蟲:selenium和Chrome無頭瀏覽器抓取烯牛數(shù)據(jù)動(dòng)態(tài)網(wǎng)頁
  • Python爬蟲:利用selenium爬取淘寶商品信息
  • Python爬蟲:selenium使用chrome和PhantomJS實(shí)用參數(shù)

  • Splash(抓取動(dòng)態(tài)網(wǎng)頁,推薦)
  • Python爬蟲:splash的安裝與簡(jiǎn)單示例
  • Python爬蟲:splash+requests簡(jiǎn)單示例
  • Python爬蟲:scrapy利用splash爬取動(dòng)態(tài)網(wǎng)頁
  • 總結(jié): 對(duì)于下載器而言,python自帶的urllib就不要花時(shí)間去學(xué)了,學(xué)了就忘,直接requests能滿足大部分測(cè)試+抓取需求,進(jìn)階工程化scrapy,動(dòng)態(tài)網(wǎng)頁優(yōu)先找API接口,如果有簡(jiǎn)單加密就破解,實(shí)在困難就使用splash渲染

    二、頁面解析器

  • BeautifulSoup(入門級(jí))
  • Python爬蟲入門BeautifulSoup模塊

  • pyquery (類似jQuery)
  • Python爬蟲:pyquery模塊解析網(wǎng)頁
  • lxml
  • Python爬蟲:使用lxml解析網(wǎng)頁內(nèi)容

  • parsel
  • Extract text using CSS or XPath selectors
  • scrapy的Selector (強(qiáng)烈推薦, 比較高級(jí)的封裝,基于parsel)
  • 選擇器(Selectors)
  • python爬蟲:scrapy框架xpath和css選擇器語法
  • 總結(jié): 其實(shí)解析器學(xué)習(xí)一個(gè)就夠了,其他都不用學(xué),很多培訓(xùn)會(huì)教你從上到下的學(xué)習(xí),我不是很推薦,直接學(xué)習(xí)scrapy的Selector 就行,簡(jiǎn)單、直接、高效

    三、數(shù)據(jù)存儲(chǔ)

  • txt文本
  • Python全棧之路:文件file常用操作

  • csv文件
  • python讀取寫入csv文件
  • sqlite3 (python自帶)
  • Python編程:使用數(shù)據(jù)庫sqlite3

  • MySQL
  • SQL:pymysql模塊讀寫mysql數(shù)據(jù)
  • MongoDB
  • Python編程:mongodb的基本增刪改查操作
  • 總結(jié): 數(shù)據(jù)存儲(chǔ)沒有什么可深究的,按照業(yè)務(wù)需求來就行,一般快速測(cè)試使用MongoDB,業(yè)務(wù)使用MySQL

    四、其他工具

  • execjs :執(zhí)行js Python爬蟲:execjs在python中運(yùn)行javascript代碼
  • pyv8: 執(zhí)行js mac安裝pyv8模塊-JavaScript翻譯成python
  • html5lib 1. Python爬蟲:scrapy利用html5lib解析不規(guī)范的html文本
  • 五、關(guān)于xpath練習(xí)

    本人的一個(gè)開源項(xiàng)目:PageParser github.com/mouday/PageP 用于解析網(wǎng)頁,最終實(shí)現(xiàn)6行代碼寫爬蟲,可以貢獻(xiàn)代碼,順便練習(xí)網(wǎng)頁解析的能力


    總結(jié)

    以上是生活随笔為你收集整理的2020年8个效率最高的爬虫框架的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。