java 爬虫框架_不知道Python爬虫?这篇文章丢给他(内含框架结构)
前言
爬蟲即網(wǎng)絡(luò)爬蟲,英文是Web Spider。翻譯過來就是網(wǎng)絡(luò)上爬行的蜘蛛,如果把互聯(lián)網(wǎng)看作一張大網(wǎng),那么爬蟲就是在大網(wǎng)上爬來爬去的蜘蛛,碰到想要的食物,就把他抓取出來。
我們在瀏覽器中輸入一個網(wǎng)址,敲擊回車,看到網(wǎng)站的頁面信息。這就是瀏覽器請求了網(wǎng)站的服務(wù)器,獲取到網(wǎng)絡(luò)資源。那么,爬蟲也相當于模擬瀏覽器發(fā)送請求,獲得到HTML代碼。HTML代碼里通常包含了標簽和文字信息,我們就從中提取到我們想要的信息。
通常爬蟲是從某個網(wǎng)站的某個頁面開始,爬取這個頁面的內(nèi)容,找到網(wǎng)頁中的其他鏈接地址,然后從這個地址爬到下一個頁面,這樣一直不停的爬下去,進去批量的抓取信息。那么,我們可以看出網(wǎng)絡(luò)爬蟲就是一個不停爬取網(wǎng)頁抓取信息的程序。
爬蟲的基本流程
- 發(fā)起請求
- 獲取相應(yīng)內(nèi)容
- 解析內(nèi)容
- 保存數(shù)據(jù)
爬蟲的用途
- 搜索引擎
- 采集數(shù)據(jù)
- 廣告過濾
- 用于數(shù)據(jù)分析
python爬蟲架構(gòu)組成
- URL管理器:管理待爬取的url集合和已爬取的url集合,傳送待爬取的url給網(wǎng)頁下載器;
- 網(wǎng)頁下載器:爬取url對應(yīng)的網(wǎng)頁,存儲成字符串,傳送給網(wǎng)頁解析器;
- 網(wǎng)頁解析器:解析出有價值的數(shù)據(jù),存儲下來,同時補充url到URL管理器。
Python爬蟲工作原理
Python爬蟲通過URL管理器,判斷是否有待爬URL,如果有待爬URL,通過調(diào)度器進行傳遞給下載器,下載URL內(nèi)容,并通過調(diào)度器傳送給解析器,解析URL內(nèi)容,并將價值數(shù)據(jù)和新URL列表通過調(diào)度器傳遞給應(yīng)用程序,并輸出價值信息的過程。
Python爬蟲常用框架有:
- grab:網(wǎng)絡(luò)爬蟲框架(基于pycurl/multicur);
- scrapy:網(wǎng)絡(luò)爬蟲框架(基于twisted),不支持Python3;
- pyspider:一個強大的爬蟲系統(tǒng);
- cola:一個分布式爬蟲框架;
- portia:基于Scrapy的可視化爬蟲;
- restkit:Python的HTTP資源工具包。它可以讓你輕松地訪問HTTP資源,并圍繞它建立的對象;
- demiurge:基于PyQuery的爬蟲微框架。
Python爬蟲應(yīng)用領(lǐng)域廣泛,在網(wǎng)絡(luò)爬蟲領(lǐng)域處于霸主位置,Scrapy、Request、BeautifuSoap、urlib等框架的應(yīng)用,可以實現(xiàn)爬行自如的功能,只要您數(shù)據(jù)抓取想法,Python爬蟲均可實現(xiàn)!
十個Python爬蟲框架
Scrapy:
Scrapy是一個為了爬取網(wǎng)站數(shù)據(jù),提取結(jié)構(gòu)性數(shù)據(jù)而編寫的應(yīng)用框架。 可以應(yīng)用在包括數(shù)據(jù)挖掘,信息處理或存儲歷史數(shù)據(jù)等一系列的程序中。它是很強大的爬蟲框架,可以滿足簡單的頁面爬取,比如可以明確獲知url pattern的情況。用這個框架可以輕松爬下來如亞馬遜商品信息之類的數(shù)據(jù)。但是對于稍微復雜一點的頁面,如weibo的頁面信息,這個框架就滿足不了需求了。它的特性有:HTML, XML源數(shù)據(jù) 選擇及提取 的內(nèi)置支持;提供了一系列在spider之間共享的可復用的過濾器(即 Item Loaders),對智能處理爬取數(shù)據(jù)提供了內(nèi)置支持。
Crawley:
高速爬取對應(yīng)網(wǎng)站的內(nèi)容,支持關(guān)系和非關(guān)系數(shù)據(jù)庫,數(shù)據(jù)可以導出為JSON、XML等。
Portia:
是一個開源可視化爬蟲工具,可讓使用者在不需要任何編程知識的情況下爬取網(wǎng)站!簡單地注釋自己感興趣的頁面,Portia將創(chuàng)建一個蜘蛛來從類似的頁面提取數(shù)據(jù)。簡單來講,它是基于scrapy內(nèi)核;可視化爬取內(nèi)容,不需要任何開發(fā)專業(yè)知識;動態(tài)匹配相同模板的內(nèi)容。
newspaper:
可以用來提取新聞、文章和內(nèi)容分析。使用多線程,支持10多種語言等。作者從requests庫的簡潔與強大得到靈感,使用Python開發(fā)的可用于提取文章內(nèi)容的程序。支持10多種語言并且所有的都是unicode編碼。
Python-goose:
Java寫的文章提取工具。Python-goose框架可提取的信息包括:文章主體內(nèi)容、文章主要圖片、文章中嵌入的任何Youtube/Vimeo視頻、元描述、元標簽。
Beautiful Soup:
名氣大,整合了一些常用爬蟲需求。它是一個可以從HTML或XML文件中提取數(shù)據(jù)的Python庫。它能夠通過你喜歡的轉(zhuǎn)換器實現(xiàn)慣用的文檔導航,查找,修改文檔的方式.Beautiful Soup會幫你節(jié)省數(shù)小時甚至數(shù)天的工作時間。Beautiful Soup的缺點是不能加載JS。
mechanize:
它的優(yōu)點是可以加載JS。當然它也有缺點,比如文檔嚴重缺失。不過通過官方的example以及人肉嘗試的方法,還是勉強能用的。
selenium:
這是一個調(diào)用瀏覽器的driver,通過這個庫你可以直接調(diào)用瀏覽器完成某些操作,比如輸入驗證碼。Selenium是自動化測試工具,它支持各種瀏覽器,包括 Chrome,Safari,Firefox等主流界面式瀏覽器,如果在這些瀏覽器里面安裝一個 Selenium 的插件,可以方便地實現(xiàn)Web界面的測試. Selenium支持瀏覽器驅(qū)動。Selenium支持多種語言開發(fā),比如 Java,C,Ruby等等,PhantomJS 用來渲染解析JS,Selenium 用來驅(qū)動以及與Python的對接,Python進行后期的處理。
cola:
是一個分布式的爬蟲框架,對于用戶來說,只需編寫幾個特定的函數(shù),而無需關(guān)注分布式運行的細節(jié)。任務(wù)會自動分配到多臺機器上,整個過程對用戶是透明的。項目整體設(shè)計有點糟,模塊間耦合度較高。
PySpider:
一個國人編寫的強大的網(wǎng)絡(luò)爬蟲系統(tǒng)并帶有強大的WebUI。采用Python語言編寫,分布式架構(gòu),支持多種數(shù)據(jù)庫后端,強大的WebUI支持腳本編輯器,任務(wù)監(jiān)視器,項目管理器以及結(jié)果查看器。Python腳本控制,可以用任何你喜歡的html解析包。
點擊右上角關(guān)注小編將會持續(xù)為您帶來相關(guān)資訊(您的關(guān)注就是小編最大的動力!)
總結(jié)
以上是生活随笔為你收集整理的java 爬虫框架_不知道Python爬虫?这篇文章丢给他(内含框架结构)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python函数的使用场景_Python
- 下一篇: python3编码命名规范_Python