日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

10个python爬虫入门实例(小结)

發布時間:2023/12/10 python 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 10个python爬虫入门实例(小结) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

這篇文章主要介紹了10個python爬蟲入門實例(小結),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧

昨天帶伙伴萌學習python爬蟲,準備了幾個簡單的入門實例

涉及主要知識點:

  • web是如何交互的
  • requests庫的get、post函數的應用
  • response對象的相關函數,屬性
  • python文件的打開,保存
  • 代碼中給出了注釋,并且可以直接運行哦

    如何安裝requests庫(安裝好python的朋友可以直接參考,沒有的,建議先裝一哈python環境)

    windows用戶,Linux用戶幾乎一樣:

    打開cmd輸入以下命令即可,如果python的環境在C盤的目錄,會提示權限不夠,只需以管理員方式運行cmd窗口

    |

    1

    |

    pip install -``i https:``/``/``pypi.tuna.tsinghua.edu.cn``/``simple requests

    |

    Linux用戶類似(ubantu為例): 權限不夠的話在命令前加入sudo即可

    |

    1

    |

    sudo pip install -i https:``//pypi``.tuna.tsinghua.edu.cn``/simple requests

    |

    1.爬取強大的BD頁面,打印頁面信息

    # 第一個爬蟲示例,爬取百度頁面

    import requests #導入爬蟲的庫,不然調用不了爬蟲的函數

    response = requests.get(``"[http://www.baidu.com](http://www.baidu.com/)"``) #生成一個response對象

    response.encoding = response.apparent_encoding #設置編碼格式

    print``(``"狀態碼:"``+ str``( response.status_code ) ) #打印狀態碼

    print``(response.text)``#輸出爬取的信息

    |

    2.常用方法之get方法實例,下面還有傳參實例

    # 第二個get方法實例

    import requests #先導入爬蟲的庫,不然調用不了爬蟲的函數

    response = requests.get(``"[http://httpbin.org/get](http://httpbin.org/get)"``) #get方法

    print``( response.status_code ) #狀態碼

    print``( response.text )

    |

    3. 常用方法之post方法實例,下面還有傳參實例

    |

    # 第三個 post方法實例

    import requests #先導入爬蟲的庫,不然調用不了爬蟲的函數

    response = requests.post(``"[http://httpbin.org/post](http://httpbin.org/post)"``) #post方法訪問

    print``( response.status_code ) #狀態碼

    print``( response.text )

    |

    4. put方法實例

    |

    # 第四個 put方法實例

    import requests #先導入爬蟲的庫,不然調用不了爬蟲的函數

    response = requests.put(``"[http://httpbin.org/put](http://httpbin.org/put)"``) # put方法訪問

    print``( response.status_code ) #狀態碼

    print``( response.text )

    |

    5.常用方法之get方法傳參實例(1)

    如果需要傳多個參數只需要用&符號連接即可如下

    # 第五個 get傳參方法實例

    import requests #先導入爬蟲的庫,不然調用不了爬蟲的函數

    response = requests.get(``"[http://httpbin.org/get?name=hezhi&age=20](http://httpbin.org/get?name=hezhi&age=20)"``) # get傳參

    print``( response.status_code ) #狀態碼

    print``( response.text )

    |

    6.常用方法之get方法傳參實例(2)

    params用字典可以傳多個

    |

    # 第六個 get傳參方法實例

    import requests #先導入爬蟲的庫,不然調用不了爬蟲的函數

    data = {

    "name"``:``"hezhi"``,

    "age"``:``20

    }

    response = requests.get( "[http://httpbin.org/get](http://httpbin.org/get)" , params``=``data ) # get傳參

    print``( response.status_code ) #狀態碼

    print``( response.text )

    |

    7.常用方法之post方法傳參實例(2) 和上一個有沒有很像

    |

    # 第七個 post傳參方法實例

    import requests #先導入爬蟲的庫,不然調用不了爬蟲的函數

    data = {

    "name"``:``"hezhi"``,

    "age"``:``20

    }

    response = requests.post( "[http://httpbin.org/post](http://httpbin.org/post)" , params``=``data ) # post傳參

    print``( response.status_code ) #狀態碼

    print``( response.text )

    |

    8.關于繞過反爬機制,以zh爸爸為例

    |

    # 第好幾個方法實例

    import requests #先導入爬蟲的庫,不然調用不了爬蟲的函數

    response = requests.get( "[http://www.zhihu.com](http://www.zhihu.com/)"``) #第一次訪問知乎,不設置頭部信息

    print``( "第一次,不設頭部信息,狀態碼:"``+``response.status_code )``# 沒寫headers,不能正常爬取,狀態碼不是 200

    #下面是可以正常爬取的區別,更改了User-Agent字段

    headers = {

    "User-Agent"``:``"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36"

    }``#設置頭部信息,偽裝瀏覽器

    response = requests.get( "[http://www.zhihu.com](http://www.zhihu.com/)" , headers``=``headers ) #get方法訪問,傳入headers參數,

    print``( response.status_code ) `

    200!訪問成功的狀態碼`

    print``( response.text )

    |

    9.爬取信息并保存到本地,因為目錄關系,在D盤建立了一個叫做爬蟲的文件夾,然后保存信息

    注意文件保存時的encoding設置。最后,如果你的時間不是很緊張,并且又想快速的python提高,最重要的是不怕吃苦,建議你可以架尉?信(同音):276 3177 065 ,那個真的很不錯,很多人進步都很快,需要你不怕吃苦哦!大家可以去添加上看一下~

    # 爬取一個html并保存

    import requests

    url = "[http://www.baidu.com](http://www.baidu.com/)"

    response = requests.get( url )

    response.encoding = "utf-8" #設置接收編碼格式

    print``(``"\nr的類型" + str``( type``(response) ) )

    print``(``"\n狀態碼是:" + str``( response.status_code ) )

    print``(``"\n頭部信息:" + str``( response.headers ) )

    print``( "\n響應內容:" )

    print``( response.text )

    #保存文件

    file = open``(``"D:\\爬蟲\\baidu.html"``,``"w"``,encoding``=``"utf"``) #打開一個文件,w是文件不存在則新建一個文件,這里不用wb是因為不用保存成二進制

    file``.write( response.text )

    file``.close()

    |

    10.爬取圖片,保存到本地

    |

    #保存百度圖片到本地

    import requests #先導入爬蟲的庫,不然調用不了爬蟲的函數

    response = requests.get(``"[https://www.baidu.com/img/baidu_jgylogo3.gif](https://www.baidu.com/img/baidu_jgylogo3.gif)"``) #get方法的到圖片響應

    file = open``(``"D:\\爬蟲\\baidu_logo.gif"``,``"wb"``) #打開一個文件,wb表示以二進制格式打開一個文件只用于寫入

    file``.write(response.content) #寫入文件

    file``.close()``#關閉操作,運行完畢后去你的目錄看一眼有沒有保存成功

    |

    到此這篇關于10個python爬蟲入門實例(小結)的文章就介紹到這了,更多相關python爬蟲入門內容請搜索python教程入門學習以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持python教程入門學習!

    總結

    以上是生活随笔為你收集整理的10个python爬虫入门实例(小结)的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。