Python爬虫如何设置代理IP
這篇文章主要介紹“Python爬蟲如何設置代理IP”,在日常操作中,相信很多人在Python爬蟲如何設置代理IP問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”Python爬蟲如何設置代理IP”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
配置環境
安裝requests庫
安裝bs4庫
安裝lxml庫
具體代碼
話不多說直接上代碼吧
函數get_ip_list(url, headers)傳入url和headers,最后返回一個IP列表,列表的元素類似122.114.31.177:808格式,這個列表包括國內髙匿代理IP網站首頁所有IP地址和端口
函數get_random_ip(ip_list)傳入第一個函數得到的列表,返回一個隨機的proxies,這個proxies可以傳入到requests的get方法中,這樣就可以做到每次運行都使用不同的IP訪問被爬取的網站,有效地避免了真實IP被封的風險
proxies的格式是一個字典: {‘http': ‘http://122.114.31.177:808‘} ,可以將下面的執行也封裝為方法
對于抓取IP這個,黑洞代理的服務器做了反爬處理,如果你頻繁去抓取的話,服務器會主動返回503錯誤,提示block,所以在請求的時候可以先一次請求完保存一個文件,來讀取這個文件,或者爬取一個ip使用幾分鐘后,再去爬取一次,相當于加一個定時功能
代理IP的使用
運行上面的代碼會得到一個隨機的proxies,把它直接傳入requests的get方法中即可
1
res = requests.get(url, headers=headers, proxies=proxies)
總結
以上是生活随笔為你收集整理的Python爬虫如何设置代理IP的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: iis7.0 https访问显示403访
- 下一篇: win10电脑桌面怎么添加备忘录