日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬虫入门心得体会,python爬虫入门和实例

發布時間:2024/9/27 python 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬虫入门心得体会,python爬虫入门和实例 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

爬蟲不外乎是為了獲取網絡上的信息,要取得信息,你就得給給服務器發請求,然后服務器把信息發給你,這一步一般較為簡單。服務器發給你的一般是一個html文件,拿到文件后,你可能會覺得這是什么亂七八糟的東西,怎么都看不懂。我覺得對于一個非計算機系的人來說,想要做點東西出來,最大的困難是缺的知識太多了,html看不懂,http原理也不懂。所以這時候你會發現你需要去學一點html,去w3cschool看一看教程,你并不需要懂很多,弄懂各種標簽的含義,能看懂html文件里的內容就行。

拿到html文件,接下來你要做的就是提取信息,準確地說,是你感興趣的信息。你需要兩樣東西,一樣用來快速定位你要獲取的信息在html源文件中的位置,讓你知道要提取什么;另一樣用來提取信息。第一樣可以選firefox或chrome,都自帶開發者功能,第二樣可以用Beautiful Soup。所以你需要花一點時間了解開發者功能怎么用,以及Beautiful Soup這個庫的用法。會發請求,會提取信息,這些就夠了,趕緊做點東西,找點成就感,這樣才能有動力繼續做下去。比如可以做下載某些網站的圖片,把知乎上的答案抓到本地。有點成就感之后就有動力更深入學習了。

在做的過程中,你可能會遇到一些困難,比如你拿到的html跟瀏覽器看到的html不一樣,你上網找一找就會發現,你需要了解一個叫http請求頭的東西。找一點資料看看,知道http請求頭是怎么回事就行了,不需要完全弄懂http的原理,解決當下的問題才是最重要的,有什么不懂的稍后再補。學了點東西后,你就知道這怎么解決這個問題了,只需在發請求的時候加一個參數,帶上http請求頭即可,這叫做模擬瀏覽器的行為。把這個問題解決后,抓取大多數網站都沒有問題了。成就感又提升了一點。

有時候你又會發現,有一些網站需要登錄才能取得一些信息。找一找資料,你就會接觸到“模擬登錄”,“post請求”等名詞。這時候,你又需要去學習一些http的知識,了解“get”,“post”是怎么回事,以及如何發post請求。為了方便處理http的相關東西,你最好學習一下requests這個庫。學習之后,參照網上的代碼,我相信模擬登錄的問題也解決了。比如,你就可以模擬登錄知乎,然后抓取知乎的首頁看看,是不是跟你用瀏覽器中看到的一樣?

繼續深入,你就會發現這些也不夠了,有些信息我需要點一下“更多”按鈕才會加載,如何獲取這些信息呢?這時候你就需要分析在點“更多”按鈕的時候瀏覽器做了什么,然后去模擬瀏覽器的行為。如何分析呢?我一般用firebug,看看點擊更多按鈕的時候,瀏覽器做了什么,瀏覽器一般會發一個post請求,會帶上一些參數,你需要知道的就是要帶上哪些參數,發請求給誰。這一步可能會有點困難,可以慢慢體會怎么做。一旦越過了這這道坎,你就幾乎可以取得任何你想要的信息了。

假設你已經成功了,得到了服務器傳回來的數據,你可能會發現,這又跟html不一樣了。這是一個叫json的東西,傳回來的數據都在里面了,接下來就是要提取數據了。所以你又要去了解json是什么,如何用python處理json。

基本上做完這些,爬蟲就算入了門。接下來為了提高性能,擴大規模,再去搞多線程,分布式什么的吧,這也是我接下來需要努力和學習的方向。

最后說一些感想:

1. 不要急于求成,編程雖然不難,但也沒有那么簡單,不要想著速成,特別是對于計算機基礎不是很好的人。

2. 學習的過程中可能會遇到很多困難(上面可能沒有提到),或許會有很多你沒有接觸的東西冒出來,善用google,一個個問題地解決,缺什么補什么。

3. 對于初學者來講,最重要的不是去學各種吊炸天的框架,追最新的技術。技術,框架是學不完的,永遠都會層出不窮,最重要的是把基礎學好。很多時候你有一個問題解決不了,都是你某些方面的知識缺了。慢慢來,不要急,隨著學習的深入,再回過頭來看以前的問題,會有豁然開朗的感覺。

4. 一定要動手做,找點成就感,對你繼續做下去有很大的促進作用。不然的話,遇到點困難很容易就放棄了。

下面進入爬蟲基礎學習

前言

簡單來說互聯網是由一個個站點和網絡設備組成的大網,我們通過瀏覽器訪問站點,站點把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經過瀏覽器解析、渲染,將豐富多彩的網頁呈現我們眼前;

一、爬蟲是什么?

如果我們把互聯網比作一張大的蜘蛛網,數據便是存放于蜘蛛網的各個節點,而爬蟲就是一只小蜘蛛,

沿著網絡抓取自己的獵物(數據)爬蟲指的是:向網站發起請求,獲取資源后分析并提取有用數據的程序;

從技術層面來說就是 通過程序模擬瀏覽器請求站點的行為,把站點返回的HTML代碼/JSON數據/二進制數據(圖片、視頻) 爬到本地,進而提取自己需要的數據,存放起來使用;

二、爬蟲的基本流程:

用戶獲取網絡數據的方式:

方式1:瀏覽器提交請求--->下載網頁代碼--->解析成頁面

方式2:模擬瀏覽器發送請求(獲取網頁代碼)->提取有用的數據->存放于數據庫或文件中

爬蟲要做的就是方式2;

1、發起請求

使用http庫向目標站點發起請求,即發送一個Request

Request包含:請求頭、請求體等

Request模塊缺陷:不能執行JS 和CSS 代碼

2、獲取響應內容

如果服務器能正常響應,則會得到一個Response

Response包含:html,json,圖片,視頻等

3、解析內容

解析html數據:正則表達式(RE模塊),第三方解析庫如Beautifulsoup,pyquery等

解析json數據:json模塊

解析二進制數據:以wb的方式寫入文件

4、保存數據

數據庫(MySQL,Mongdb、Redis)

文件

三、http協議 請求與響應

Request:用戶將自己的信息通過瀏覽器(socket client)發送給服務器(socket server)

Response:服務器接收請求,分析用戶發來的請求信息,然后返回數據(返回的數據中可能包含其他鏈接,如:圖片,js,css等)

ps:瀏覽器在接收Response后,會解析其內容來顯示給用戶,而爬蟲程序在模擬瀏覽器發送請求然后接收Response后,是要提取其中的有用數據。

四、 request

1、請求方式:

常見的請求方式:GET / POST

2、請求的URL

url全球統一資源定位符,用來定義互聯網上一個唯一的資源 例如:一張圖片、一個文件、一段視頻都可以用url唯一確定

url編碼

https://www.baidu.com/s?wd=圖片

圖片會被編碼(看示例代碼)

網頁的加載過程是:

加載一個網頁,通常都是先加載document文檔,

在解析document文檔的時候,遇到鏈接,則針對超鏈接發起下載圖片的請求

3、請求頭

User-agent:請求頭中如果沒有user-agent客戶端配置,服務端可能將你當做一個非法用戶host;

cookies:cookie用來保存登錄信息

注意: 一般做爬蟲都會加上請求頭

請求頭需要注意的參數:

(1)Referrer:訪問源至哪里來(一些大型網站,會通過Referrer 做防盜鏈策略;所有爬蟲也要注意模擬)

(2)User-Agent:訪問的瀏覽器(要加上否則會被當成爬蟲程序)

(3)cookie:請求頭注意攜帶

4、請求體

請求體

如果是get方式,請求體沒有內容 (get請求的請求體放在 url后面參數中,直接能看到)

如果是post方式,請求體是format data

ps:

1、登錄窗口,文件上傳等,信息都會被附加到請求體內

2、登錄,輸入錯誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁面通常會跳轉,無法捕捉到post

五、 響應Response

1、響應狀態碼

200:代表成功

301:代表跳轉

404:文件不存在

403:無權限訪問

502:服務器錯誤

2、respone header

響應頭需要注意的參數:

(1)Set-Cookie:BDSVRTM=0; path=/:可能有多個,是來告訴瀏覽器,把cookie保存下來

(2)Content-Location:服務端響應頭中包含Location返回瀏覽器之后,瀏覽器就會重新訪問另一個頁面

3、preview就是網頁源代碼

JSO數據

如網頁html,圖片

二進制數據等

六、總結

1、總結爬蟲流程:

爬取--->解析--->存儲

2、爬蟲所需工具:

請求庫:requests,selenium(可以驅動瀏覽器解析渲染CSS和JS,但有性能劣勢(有用沒用的網頁都會加載);)

解析庫:正則,beautifulsoup,pyquery

存儲庫:文件,MySQL,Mongodb,Redis

3、爬獲校花網(實例)

最后送給大家點福利吧

基礎版:import?re

import?requests

respose=requests.get('http://www.xiaohuar.com/v/')

#?print(respose.status_code)#?響應的狀態碼

#?print(respose.content)??#返回字節信息

#?print(respose.text)??#返回文本內容

urls=re.findall(r'class="items".*?href="(.*?)"',respose.text,re.S)??#re.S?把文本信息轉換成1行匹配

url=urls[5]

result=requests.get(url)

mp4_url=re.findall(r'id="media".*?src="(.*?)"',result.text,re.S)[0]

video=requests.get(mp4_url)

with?open('D:\\a.mp4','wb')?as?f:

f.write(video.content)

函數封裝版import?re

import?requests

import?hashlib

import?time

#?respose=requests.get('http://www.xiaohuar.com/v/')

#?#?print(respose.status_code)#?響應的狀態碼

#?#?print(respose.content)??#返回字節信息

#?#?print(respose.text)??#返回文本內容

#?urls=re.findall(r'class="items".*?href="(.*?)"',respose.text,re.S)??#re.S?把文本信息轉換成1行匹配

#?url=urls[5]

#?result=requests.get(url)

#?mp4_url=re.findall(r'id="media".*?src="(.*?)"',result.text,re.S)[0]

#

#?video=requests.get(mp4_url)

#

#?with?open('D:\\a.mp4','wb')?as?f:

#?????f.write(video.content)

#

def?get_index(url):

respose?=?requests.get(url)

if?respose.status_code==200:

return?respose.text

def?parse_index(res):

urls?=?re.findall(r'class="items".*?href="(.*?)"',?res,re.S)??#?re.S?把文本信息轉換成1行匹配

return?urls

def?get_detail(urls):

for?url?in?urls:

if?not?url.startswith('http'):

url='http://www.xiaohuar.com%s'?%url

result?=?requests.get(url)

if?result.status_code==200?:

mp4_url_list?=?re.findall(r'id="media".*?src="(.*?)"',?result.text,?re.S)

if?mp4_url_list:

mp4_url=mp4_url_list[0]

print(mp4_url)

#?save(mp4_url)

def?save(url):

video?=?requests.get(url)

if?video.status_code==200:

m=hashlib.md5()

m.updata(url.encode('utf-8'))

m.updata(str(time.time()).encode('utf-8'))

filename=r'%s.mp4'%?m.hexdigest()

filepath=r'D:\\%s'%filename

with?open(filepath,?'wb')?as?f:

f.write(video.content)

def?main():

for?i?in?range(5):

res1?=?get_index('http://www.xiaohuar.com/list-3-%s.html'%?i?)

res2?=?parse_index(res1)

get_detail(res2)

if?__name__?==?'__main__':

main()

并發版(如果一共需要爬30個視頻,開30個線程去做,花的時間就是 其中最慢那份的耗時時間)import?re

import?requests

import?hashlib

import?time

from?concurrent.futures?import?ThreadPoolExecutor

p=ThreadPoolExecutor(30)?#創建1個程池中,容納線程個數為30個;

def?get_index(url):

respose?=?requests.get(url)

if?respose.status_code==200:

return?respose.text

def?parse_index(res):

res=res.result()?#進程執行完畢后,得到1個對象

urls?=?re.findall(r'class="items".*?href="(.*?)"',?res,re.S)??#?re.S?把文本信息轉換成1行匹配

for?url?in?urls:

p.submit(get_detail(url))??#獲取詳情頁?提交到線程池

def?get_detail(url):??#只下載1個視頻

if?not?url.startswith('http'):

url='http://www.xiaohuar.com%s'?%url

result?=?requests.get(url)

if?result.status_code==200?:

mp4_url_list?=?re.findall(r'id="media".*?src="(.*?)"',?result.text,?re.S)

if?mp4_url_list:

mp4_url=mp4_url_list[0]

print(mp4_url)

#?save(mp4_url)

def?save(url):

video?=?requests.get(url)

if?video.status_code==200:

m=hashlib.md5()

m.updata(url.encode('utf-8'))

m.updata(str(time.time()).encode('utf-8'))

filename=r'%s.mp4'%?m.hexdigest()

filepath=r'D:\\%s'%filename

with?open(filepath,?'wb')?as?f:

f.write(video.content)

def?main():

for?i?in?range(5):

p.submit(get_index,'http://www.xiaohuar.com/list-3-%s.html'%?i?).add_done_callback(parse_index)

#1、先把爬主頁的任務(get_index)異步提交到線程池

#2、get_index任務執行完后,會通過回調函add_done_callback()數通知主線程,任務完成;

#2、把get_index執行結果(注意線程執行結果是對象,調用res=res.result()方法,才能獲取真正執行結果),當做參數傳給parse_index

#3、parse_index任務執行完畢后,

#4、通過循環,再次把獲取詳情頁?get_detail()任務提交到線程池執行

if?__name__?==?'__main__':

main()

涉及知識:多線程多進程

計算密集型任務:使用多進程,因為能Python有GIL,多進程可以利用上CPU多核優勢;

IO密集型任務:使用多線程,做IO切換節省任務執行時間(并發)

線程池

本文參考資料:http://www.cnblogs.com/linhaifeng/articles/7773496.html

總結

以上是生活随笔為你收集整理的python爬虫入门心得体会,python爬虫入门和实例的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。