日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

关于Python爬虫原理和数据抓取1.1

發(fā)布時間:2023/11/28 生活经验 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 关于Python爬虫原理和数据抓取1.1 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

為什么要做爬蟲?

首先請問:都說現(xiàn)在是"大數(shù)據(jù)時代",那數(shù)據(jù)從何而來?

  • 企業(yè)產(chǎn)生的用戶數(shù)據(jù):百度指數(shù)、阿里指數(shù)、TBI騰訊瀏覽指數(shù)、新浪微博指數(shù)

  • 數(shù)據(jù)平臺購買數(shù)據(jù):數(shù)據(jù)堂、國云數(shù)據(jù)市場、貴陽大數(shù)據(jù)交易所

  • 政府/機構(gòu)公開的數(shù)據(jù):中華人民共和國國家統(tǒng)計局?jǐn)?shù)據(jù)、世界銀行公開數(shù)據(jù)、聯(lián)合國數(shù)據(jù)、納斯達(dá)克。

  • 數(shù)據(jù)管理咨詢公司:麥肯錫、埃森哲、艾瑞咨詢

  • 爬取網(wǎng)絡(luò)數(shù)據(jù):如果需要的數(shù)據(jù)市場上沒有,或者不愿意購買,那么可以選擇招/做一名爬蟲工程師,自己動手豐衣足食。拉勾網(wǎng)Python爬蟲職位

爬蟲是什么?

百度百科:網(wǎng)絡(luò)爬蟲

關(guān)于Python爬蟲,我們需要學(xué)習(xí)的有:

1. Python基礎(chǔ)語法學(xué)習(xí)(基礎(chǔ)知識)

2. HTML頁面的內(nèi)容抓取(數(shù)據(jù)抓取)

3. HTML頁面的數(shù)據(jù)提取(數(shù)據(jù)清洗)

4. Scrapy框架以及scrapy-redis分布式策略(第三方框架)

6. 爬蟲(Spider)、反爬蟲(Anti-Spider)、反反爬蟲(Anti-Anti-Spider)之間的斗爭....

通用爬蟲和聚焦爬蟲

根據(jù)使用場景,網(wǎng)絡(luò)爬蟲可分為?通用爬蟲?和?聚焦爬蟲?兩種.

通用爬蟲

通用網(wǎng)絡(luò)爬蟲 是 捜索引擎抓取系統(tǒng)(Baidu、Google、Yahoo等)的重要組成部分。主要目的是將互聯(lián)網(wǎng)上的網(wǎng)頁下載到本地,形成一個互聯(lián)網(wǎng)內(nèi)容的鏡像備份。

通用搜索引擎(Search Engine)工作原理

通用網(wǎng)絡(luò)爬蟲?從互聯(lián)網(wǎng)中搜集網(wǎng)頁,采集信息,這些網(wǎng)頁信息用于為搜索引擎建立索引從而提供支持,它決定著整個引擎系統(tǒng)的內(nèi)容是否豐富,信息是否即時,因此其性能的優(yōu)劣直接影響著搜索引擎的效果。

第一步:抓取網(wǎng)頁

搜索引擎網(wǎng)絡(luò)爬蟲的基本工作流程如下:

  1. 首先選取一部分的種子URL,將這些URL放入待抓取URL隊列;

  2. 取出待抓取URL,解析DNS得到主機的IP,并將URL對應(yīng)的網(wǎng)頁下載下來,存儲進(jìn)已下載網(wǎng)頁庫中,并且將這些URL放進(jìn)已抓取URL隊列。

  3. 分析已抓取URL隊列中的URL,分析其中的其他URL,并且將URL放入待抓取URL隊列,從而進(jìn)入下一個循環(huán)...

?

搜索引擎如何獲取一個新網(wǎng)站的URL:

1. 新網(wǎng)站向搜索引擎主動提交網(wǎng)址:(如百度http://zhanzhang.baidu.com/linksubmit/url)

2. 在其他網(wǎng)站上設(shè)置新網(wǎng)站外鏈(盡可能處于搜索引擎爬蟲爬取范圍)

3. 搜索引擎和DNS解析服務(wù)商(如DNSPod等)合作,新網(wǎng)站域名將被迅速抓取。

但是搜索引擎蜘蛛的爬行是被輸入了一定的規(guī)則的,它需要遵從一些命令或文件的內(nèi)容,如標(biāo)注為nofollow的鏈接,或者是Robots協(xié)議。

Robots協(xié)議(也叫爬蟲協(xié)議、機器人協(xié)議等),全稱是“網(wǎng)絡(luò)爬蟲排除標(biāo)準(zhǔn)”(Robots Exclusion Protocol),網(wǎng)站通過Robots協(xié)議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取,例如:

淘寶網(wǎng):https://www.taobao.com/robots.txt

騰訊網(wǎng):?http://www.qq.com/robots.txt

第二步:數(shù)據(jù)存儲

搜索引擎通過爬蟲爬取到的網(wǎng)頁,將數(shù)據(jù)存入原始頁面數(shù)據(jù)庫。其中的頁面數(shù)據(jù)與用戶瀏覽器得到的HTML是完全一樣的。

搜索引擎蜘蛛在抓取頁面時,也做一定的重復(fù)內(nèi)容檢測,一旦遇到訪問權(quán)重很低的網(wǎng)站上有大量抄襲、采集或者復(fù)制的內(nèi)容,很可能就不再爬行。

第三步:預(yù)處理

搜索引擎將爬蟲抓取回來的頁面,進(jìn)行各種步驟的預(yù)處理。

  • 提取文字
  • 中文分詞
  • 消除噪音(比如版權(quán)聲明文字、導(dǎo)航條、廣告等……)
  • 索引處理
  • 鏈接關(guān)系計算
  • 特殊文件處理
  • ....

除了HTML文件外,搜索引擎通常還能抓取和索引以文字為基礎(chǔ)的多種文件類型,如 PDF、Word、WPS、XLS、PPT、TXT 文件等。我們在搜索結(jié)果中也經(jīng)常會看到這些文件類型。

但搜索引擎還不能處理圖片、視頻、Flash 這類非文字內(nèi)容,也不能執(zhí)行腳本和程序。

第四步:提供檢索服務(wù),網(wǎng)站排名

搜索引擎在對信息進(jìn)行組織和處理后,為用戶提供關(guān)鍵字檢索服務(wù),將用戶檢索相關(guān)的信息展示給用戶。

同時會根據(jù)頁面的PageRank值(鏈接的訪問量排名)來進(jìn)行網(wǎng)站排名,這樣Rank值高的網(wǎng)站在搜索結(jié)果中會排名較前,當(dāng)然也可以直接使用 Money 購買搜索引擎網(wǎng)站排名,簡單粗暴。

?

課外閱讀:Google搜索引擎的工作原理

但是,這些通用性搜索引擎也存在著一定的局限性:

  1. 通用搜索引擎所返回的結(jié)果都是網(wǎng)頁,而大多情況下,網(wǎng)頁里90%的內(nèi)容對用戶來說都是無用的。

  2. 不同領(lǐng)域、不同背景的用戶往往具有不同的檢索目的和需求,搜索引擎無法提供針對具體某個用戶的搜索結(jié)果。

  3. 萬維網(wǎng)數(shù)據(jù)形式的豐富和網(wǎng)絡(luò)技術(shù)的不斷發(fā)展,圖片、數(shù)據(jù)庫、音頻、視頻多媒體等不同數(shù)據(jù)大量出現(xiàn),通用搜索引擎對這些文件無能為力,不能很好地發(fā)現(xiàn)和獲取。

  4. 通用搜索引擎大多提供基于關(guān)鍵字的檢索,難以支持根據(jù)語義信息提出的查詢,無法準(zhǔn)確理解用戶的具體需求。

針對這些情況,聚焦爬蟲技術(shù)得以廣泛使用。

聚焦爬蟲

聚焦爬蟲,是"面向特定主題需求"的一種網(wǎng)絡(luò)爬蟲程序,它與通用搜索引擎爬蟲的區(qū)別在于:?聚焦爬蟲在實施網(wǎng)頁抓取時會對內(nèi)容進(jìn)行處理篩選,盡量保證只抓取與需求相關(guān)的網(wǎng)頁信息。

而我們今后要學(xué)習(xí)的,就是聚焦爬蟲。

總結(jié)

以上是生活随笔為你收集整理的关于Python爬虫原理和数据抓取1.1的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。