python爬虫心得_Python爬虫入门心得分享
網(wǎng)絡(luò)爬蟲是一種自動(dòng)獲取網(wǎng)頁內(nèi)容的程序,是搜索引擎的重要組成部分。網(wǎng)絡(luò)爬蟲為搜索引擎從萬維網(wǎng)下載網(wǎng)頁。一般分為傳統(tǒng)爬蟲和聚焦爬蟲。
學(xué)爬蟲是循序漸進(jìn)的過程,作為零基礎(chǔ)小白,大體上可分為三個(gè)階段,第一階段是入門,掌握必備的基礎(chǔ)知識,第二階段是模仿,跟著別人的爬蟲代碼學(xué),弄懂每一行代碼,第三階段是自己動(dòng)手,這個(gè)階段你開始有自己的解題思路了,可以獨(dú)立設(shè)計(jì)爬蟲系統(tǒng)。
爬蟲涉及的技術(shù)包括但不限于熟練一門編程語言(這里以 Python 為例) HTML 知識、HTTP/HTTPS 協(xié)議的基本知識、正則表達(dá)式、數(shù)據(jù)庫知識,常用抓包工具的使用、爬蟲框架的使用、涉及到大規(guī)模爬蟲,還需要了解分布式的概念、消息隊(duì)列、常用的數(shù)據(jù)結(jié)構(gòu)和算法、緩存,甚至還包括機(jī)器學(xué)習(xí)的應(yīng)用,大規(guī)模的系統(tǒng)背后都是靠很多技術(shù)來支撐的。爬蟲只是為了獲取數(shù)據(jù),分析、挖掘這些數(shù)據(jù)才是價(jià)值,因此它還可以延伸到數(shù)據(jù)分析、數(shù)據(jù)挖掘等領(lǐng)域,給企業(yè)做決策,所以作為一名爬蟲工程師,是大有可為的。
那么是不是一定要把上面的知識全學(xué)完了才可以開始寫爬蟲嗎?當(dāng)然不是,學(xué)習(xí)是一輩子的事,只要你會(huì)寫 Python 代碼了,就直接上手爬蟲,好比學(xué)車,只要能開動(dòng)了就上路吧,當(dāng)然寫代碼可比開車安全多了。
用 Python 寫爬蟲,首先需要會(huì) Python,把基礎(chǔ)語法搞懂,知道怎么使用函數(shù)、類和常用的數(shù)據(jù)結(jié)構(gòu)如 list、dict 中的常用方法就算基本入門。接著你需要了解 HTML,HTML 就是一個(gè)文檔樹結(jié)構(gòu),網(wǎng)上有個(gè) HTML 30分鐘入門教程 夠用了。然后是關(guān)于 HTTP 的知識,爬蟲基本原理就是通過網(wǎng)絡(luò)請求從遠(yuǎn)程服務(wù)器下載數(shù)據(jù)的過程,而這個(gè)網(wǎng)絡(luò)請求背后的技術(shù)就是基于 HTTP 協(xié)議。作為入門爬蟲來說,你需要了解 HTTP協(xié)議的基本原理,雖然 HTTP 規(guī)范用一本書都寫不完,但深入的內(nèi)容可以放以后慢慢去看,理論與實(shí)踐相結(jié)合。
網(wǎng)絡(luò)請求框架都是對 HTTP 協(xié)議的實(shí)現(xiàn),比如著名的網(wǎng)絡(luò)請求庫 Requests 就是一個(gè)模擬瀏覽器發(fā)送 HTTP 請求的網(wǎng)絡(luò)庫。了解 HTTP 協(xié)議之后,你就可以專門有針對性的學(xué)習(xí)和網(wǎng)絡(luò)相關(guān)的模塊了,比如 Python 自帶有 urllib、urllib2(Python3中的urllib),httplib,Cookie等內(nèi)容,當(dāng)然你可以直接跳過這些,直接學(xué)習(xí) Requests 怎么用,前提是你熟悉了 HTTP協(xié)議的基本內(nèi)容。這里不得不推薦的一本書是《圖解HTTP》。數(shù)據(jù)爬下來,大部分情況是 HTML 文本,也有少數(shù)是基于 XML 格式或者 Json 格式的數(shù)據(jù),要想正確處理這些數(shù)據(jù),你要熟悉每種數(shù)據(jù)類型的解決方案,比如JSON數(shù)據(jù)可以直接使用 Python自帶的模塊 json,對于 HTML 數(shù)據(jù),可以使用 BeautifulSoup、lxml 等庫去處理,對于 xml 數(shù)據(jù),除了可以使用 untangle、xmltodict等第三方庫。
入門爬蟲,學(xué)習(xí)正則表達(dá)式并不是必須的,你可以在你真正需要的時(shí)候再去學(xué),比如你把數(shù)據(jù)爬取回來后,需要對數(shù)據(jù)進(jìn)行清洗,當(dāng)你發(fā)現(xiàn)使用常規(guī)的字符串操作方法根本沒法處理時(shí),這時(shí)你可以嘗試了解一下正則表達(dá)式,往往它能起到事半功倍的效果。Python 的 re 模塊可用來處理正則表達(dá)式。這里也推薦幾個(gè)教程: 正則表達(dá)式30分鐘入門教程 Python正則表達(dá)式指南 正則表達(dá)式完全指南
數(shù)據(jù)清洗完最終要進(jìn)行持久化存儲(chǔ),你可以用文件存儲(chǔ),比如CSV文件,也可以用數(shù)據(jù)庫存儲(chǔ),簡單的用 sqlite,專業(yè)點(diǎn)用 MySQL,或者是分布式的文檔數(shù)據(jù)庫 MongoDB,這些數(shù)據(jù)庫對Python都非常友好,有現(xiàn)成的庫支持。 Python操作MySQL數(shù)據(jù)庫 通過Python連接數(shù)據(jù)庫
從數(shù)據(jù)的抓取到清洗再到存儲(chǔ)的基本流程都走完了,也算是基本入門了,接下來就是考驗(yàn)內(nèi)功的時(shí)候了,很多網(wǎng)站都設(shè)有反爬蟲策略,他們想方設(shè)法阻止你用非正常手段獲取數(shù)據(jù),比如會(huì)有各種奇奇怪怪的驗(yàn)證碼限制你的請求操作、對請求速度做限制,對IP做限制、甚至對數(shù)據(jù)進(jìn)行加密操作,總之,就是為了提高獲取數(shù)據(jù)的成本。這時(shí)你需要掌握的知識就要更多了,你需要深入理解 HTTP 協(xié)議,你需要理解常見的加解密算法,你要理解 HTTP 中的 cookie,HTTP 代理,HTTP中的各種HEADER。爬蟲與反爬蟲就是相愛相殺的一對,道高一次魔高一丈。如何應(yīng)對反爬蟲沒有既定的統(tǒng)一的解決方案,靠的是你的經(jīng)驗(yàn)以及你所掌握的知識體系。這不是僅憑21天入門教程就能達(dá)到的高度。
數(shù)據(jù)結(jié)構(gòu)和算法
進(jìn)行大規(guī)模爬蟲,通常都是從一個(gè)URL開始爬,然后把頁面中解析的URL鏈接加入待爬的URL集合中,我們需要用到隊(duì)列或者優(yōu)先隊(duì)列來區(qū)別對待有些網(wǎng)站優(yōu)先爬,有些網(wǎng)站后面爬。每爬去一個(gè)頁面,是使用深度優(yōu)先還是廣度優(yōu)先算法爬取下一個(gè)鏈接。每次發(fā)起網(wǎng)絡(luò)請求的時(shí)候,會(huì)涉及到一個(gè)DNS的解析過程(將網(wǎng)址轉(zhuǎn)換成IP)為了避免重復(fù)地 DNS 解析,我們需要把解析好的 IP 緩存下來。URL那么多,如何判斷哪些網(wǎng)址已經(jīng)爬過,哪些沒有爬過,簡單點(diǎn)就是是使用字典結(jié)構(gòu)來存儲(chǔ)已經(jīng)爬過的的URL,但是如果碰過海量的URL時(shí),字典占用的內(nèi)存空間非常大,此時(shí)你需要考慮使用 Bloom Filter(布隆過濾器),用一個(gè)線程逐個(gè)地爬取數(shù)據(jù),效率低得可憐,如果提高爬蟲效率,是使用多線程,多進(jìn)程還是協(xié)程,還是分布式操作。
關(guān)于實(shí)踐
網(wǎng)上的爬蟲教程多如牛毛,原理大體相同,只不過是換個(gè)不同的網(wǎng)站進(jìn)行爬取,你可以跟著網(wǎng)上的教程學(xué)習(xí)模擬登錄一個(gè)網(wǎng)站,模擬打卡之類的,爬個(gè)豆瓣的電影、書籍之類的。通過不斷地練習(xí),從遇到問題到解決問題,這樣的收獲看書沒法比擬的。
爬蟲常用庫urllib、urlib2(Python中的urllib)python內(nèi)建的網(wǎng)絡(luò)請求庫
urllib3:線程安全的HTTP網(wǎng)絡(luò)請求庫
requests:使用最廣泛的網(wǎng)絡(luò)請求庫,兼容py2和py3
grequests:異步的requests
BeautifulSoup:HTML、XML操作解析庫
lxml:另一種處理 HTML、XML的方式
tornado:異步網(wǎng)絡(luò)框架
Gevent:異步網(wǎng)絡(luò)框架
Scrapy:最流行的爬蟲框架
pyspider:爬蟲框架
xmltodict:xml轉(zhuǎn)換成字典
pyquery:像jQuery一樣操作HTML
Jieba :分詞
SQLAlchemy:ORM框架
celery :消息隊(duì)列
rq:簡單消息隊(duì)列
python-goose :從HTML中提取文本
書籍推薦:《圖解HTTP》
《HTTP權(quán)威指南》
《計(jì)算機(jī)網(wǎng)絡(luò):自頂向下方法》
《用Python寫網(wǎng)絡(luò)爬蟲》
《Python網(wǎng)絡(luò)數(shù)據(jù)采集》
《精通正則表達(dá)式》
《Python入門到實(shí)踐》
《自己動(dòng)手寫網(wǎng)絡(luò)爬蟲》
《Crypto101》
《圖解密碼技術(shù)》
以上內(nèi)容就是關(guān)于Python爬蟲技術(shù)入門經(jīng)驗(yàn)分享,希望能幫助到大家。
相關(guān)推薦:
以上就是Python爬蟲入門心得分享的詳細(xì)內(nèi)容,更多請關(guān)注php中文網(wǎng)其它相關(guān)文章!
本文原創(chuàng)發(fā)布php中文網(wǎng),轉(zhuǎn)載請注明出處,感謝您的尊重!
總結(jié)
以上是生活随笔為你收集整理的python爬虫心得_Python爬虫入门心得分享的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 绘图板应用讲解计算机,电脑绘图板怎么用?
- 下一篇: python serial库文件下载_p