爬虫代理及ssl验证
生活随笔
收集整理的這篇文章主要介紹了
爬虫代理及ssl验证
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
IP代理:
import requests url='https://weibo.com/' proxies={ 'http':'116.196.66.197:99999' } # 此處的proxies即為代理,里面的參數為代理ip,到百度搜索‘代理ip’即可獲取 response=requests.get(url,proxies=proxies) content=response.content.decode("gbk") print(content)
import requests url='https://weibo.com/' proxies={ 'http':'116.196.66.197:99999' } # 此處的proxies即為代理,里面的參數為代理ip,到百度搜索‘代理ip’即可獲取 response=requests.get(url,proxies=proxies) content=response.content.decode("gbk") print(content)
?ssl驗證設置:
import requestsresponse=requests.get("https://www.12306.cn/ ",verify=False) print('請求的狀態',response.status_code) # print('請求的內容',response.content.decode()) # 爬取的時候,請求的次數太頻繁,網站可能會返回的不是200,這時候就需要判斷,將verify設置為false表示無需驗證?
轉載于:https://www.cnblogs.com/Dark-fire-liehuo/p/9975888.html
總結
以上是生活随笔為你收集整理的爬虫代理及ssl验证的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python 类
- 下一篇: Docker容器的生命周期管理