日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python的爬虫库_python做爬虫常用库

發布時間:2025/3/20 python 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python的爬虫库_python做爬虫常用库 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

python做爬蟲常用庫

一、總結

一句話總結:

urllib:一系列用于操作URL的功能。

requests:基于 urllib 編寫的,阻塞式 HTTP 請求庫,發出一個請求,一直等待服務器響應后,程序才能進行下一步處理。

selenium:自動化測試工具。一個調用瀏覽器的 driver,通過這個庫你可以直接調用瀏覽器完成某些操作,比如輸入驗證碼。

aiohttp:基于 asyncio 實現的 HTTP 框架。異步操作借助于 async/await 關鍵字,使用異步庫進行數據抓取,可以大大提高效率。

二、python做爬蟲常用庫

轉自或參考:Python 網絡爬蟲的常用庫匯總 - 實驗樓 - 博客園

https://www.cnblogs.com/shiyanlou/p/11504767.html

爬蟲的編程語言有不少,但 Python 絕對是其中的主流之一。下面就為大家介紹下 Python 在編寫網絡爬蟲常常用到的一些庫。

請求庫:實現 HTTP 請求操作

urllib:一系列用于操作URL的功能。

requests:基于 urllib 編寫的,阻塞式 HTTP 請求庫,發出一個請求,一直等待服務器響應后,程序才能進行下一步處理。

selenium:自動化測試工具。一個調用瀏覽器的 driver,通過這個庫你可以直接調用瀏覽器完成某些操作,比如輸入驗證碼。

aiohttp:基于 asyncio 實現的 HTTP 框架。異步操作借助于 async/await 關鍵字,使用異步庫進行數據抓取,可以大大提高效率。

解析庫:從網頁中提取信息

beautifulsoup:html 和 XML 的解析,從網頁中提取信息,同時擁有強大的API和多樣解析方式。

pyquery:jQuery 的 Python 實現,能夠以 jQuery 的語法來操作解析 HTML 文檔,易用性和解析速度都很好。

lxml:支持HTML和XML的解析,支持XPath解析方式,而且解析效率非常高。

tesserocr:一個 OCR 庫,在遇到驗證碼(圖形驗證碼為主)的時候,可直接用 OCR 進行識別。

存儲庫:Python 與數據庫交互

pymysql:一個純 Python 實現的 MySQL 客戶端操作庫。

pymongo:一個用于直接連接 mongodb 數據庫進行查詢操作的庫。

redisdump:一個用于 redis 數據導入/導出的工具。基于 ruby 實現的,因此使用它,需要先安裝 Ruby。

爬蟲框架

Scrapy:很強大的爬蟲框架,可以滿足簡單的頁面爬取(比如可以明確獲知url pattern的情況)。用這個框架可以輕松爬下來如亞馬遜商品信息之類的數據。但是對于稍微復雜一點的頁面,如 weibo 的頁面信息,這個框架就滿足不了需求了。

Crawley:高速爬取對應網站的內容,支持關系和非關系數據庫,數據可以導出為 JSON、XML 等。

Portia:可視化爬取網頁內容。

newspaper:提取新聞、文章以及內容分析。

python-goose:java 寫的文章提取工具。

cola:一個分布式爬蟲框架。項目整體設計有點糟,模塊間耦合度較高。

Web 框架庫

flask:輕量級的 web 服務程序,簡單,易用,靈活,主要來做一些 API 服務。做代理時可能會用到。

django:一個 web 服務器框架,提供了一個完整的后臺管理,引擎、接口等,使用它可做一個完整網站。

總結

以上是生活随笔為你收集整理的python的爬虫库_python做爬虫常用库的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。