html登录界面设计代码_Python登录豆瓣并爬取影评
會話狀態管理(如用戶登錄狀態、購物車、游戲分數或其它需要記錄的信息)
個性化設置(如用戶自定義設置、主題等)
瀏覽器行為跟蹤(如跟蹤分析用戶行為等)
我們今天就用requests庫來登錄豆瓣然后爬取影評為例子,用代碼講解下Cookie的會話狀態管理(登錄)功能。
此教程僅用于學習,不得商業獲利!如有侵害任何公司利益請及時聯系!
一、需求背景
之前爬取了優酷的彈幕并生成詞云圖片,發現優酷彈幕的質量并不高,有很多介詞和一些無效詞,比如:哈哈、啊啊、這些、那些。。。而豆瓣口碑一直不錯,有些書或者電影的推薦都很不錯,所以我們今天來爬取下豆瓣的影評,然后生成詞云,看看效果如何吧!
二、功能描述
我們使用requests庫登錄豆瓣,然后爬取影評,最后生成詞云!
為什么我們之前的案例(京東、優酷等)中不需要登錄,而今天爬取豆瓣需要登錄呢?那是因為豆瓣在沒有登錄狀態情況下只允許你查看前200條影評,之后就需要登錄才能查看,這也算是一種反爬手段!
三、技術方案
我們看下簡單的技術方案,大致可以分為三部分:
分析豆瓣的登錄接口并用requests庫實現登錄并保存cookie
分析豆瓣影評接口實現批量抓取數據
使用詞云做影評數據分析
方案確定之后我們就開始實際操作吧!
四、登錄豆瓣
做爬蟲前我們都是先從瀏覽器開始,使用調試窗口查看url。
1.分析豆瓣登錄接口
打開登錄頁面,然后調出調試窗口,輸入用戶名和密碼,點擊登錄。這里建議輸入錯誤的密碼,這樣就不會因為頁面跳轉而捕捉不到請求!上面我們便獲取到登錄請求的URL:
https://accounts.douban.com/j/mobile/login/basic
因為是一個POST請求,所以我們還需要看看請求登錄時攜帶的參數,我們將調試窗口往下拉查看Form Data。
2.代碼實現登錄豆瓣
得到登錄請求URL和參數后,我們就可以來用requests庫來寫一個登錄功能!
3.保存會話狀態
我們如何讓代碼自動保存Cookie呢?
也許你見過或者使用過urllib庫,它用來保存Cookie的方式如下:
cookie = http.cookiejar.CookieJar()handler = urllib.request.HttpCookieProcessor(cookie)opener = urllib.request.build_opener(handler)opener(url)
但是前面我們介紹requests庫的時候就說過:
requests庫是一個基于urllib/3的第三方網絡庫,它的特點是功能強大,API優雅。由上圖我們可以看到,對于http客戶端python官方文檔也推薦我們使用requests庫,實際工作中requests庫也是使用的比較多的庫。
所以今天我們來看看requests庫是如何優雅的幫我們自動保存Cookie的?我們來對代碼做一點微調,使之能自動保存Cookie維持會話狀態!上述代碼中,我們做了兩處改動:
在最上面增加一行s = requests.Session(),生成Session對象用來保存Cookie
發起請求不再是原來的requests對象,而是變成了Session對象
我們可以看到發起請求的對象變成了session對象,它和原來的requests對象發起請求方式一樣,只不過它每次請求會自動帶上Cookie,所以后面我們都用Session對象來發起請求!
4.這個Session對象是我們常說的session嗎?
講到這里也許有同學會問:requests.Session對象是不是我們常說的session呢?
答案當然不是,我們常說的session是保存在服務端的,而requests.Session對象只是一個用于保存Cookie的對象而已,我們可以看看它的源碼介紹所以大家千萬不要將requests.Session對象與session技術搞混了!
五、爬取影評
我們實現了登錄和保存會話狀態之后,就可以開始干正事啦!
1.分析豆瓣影評接口
首先在豆瓣中找到自己想要分析的電影,這里選擇一部美國電影《荒野生存》。然后下拉找到影評,調出調試窗口,找到加載影評的URL
2.爬取一條影評數據
但是爬取下來的是一個HTML網頁數據,我們需要將影評數據提取出來
3.影評內容提取
上圖中我們可以看到爬取返回的是html,而影評數據便是嵌套在html標簽中,如何提取影評內容呢?
這里我們使用正則表達式來匹配想要的標簽內容,當然也有更高級的提取方法,比如使用某些庫(比如bs4、xpath等)去解析html提取內容,而且使用庫效率也比較高,但這是我們后面的內容,我們今天就用正則來匹配!
我們先來分析下返回html 的網頁結構我們發現影評內容都是在這個標簽里,那我們 就可以寫正則來匹配這個標簽里的內容啦!檢查下提取的內容
4.批量爬取
我們爬取、提取、保存完一條數據之后,我們來批量爬取一下。根據前面幾次爬取的經驗,我們知道批量爬取的關鍵在于找到分頁參數,我們可以很快發現URL中有一個start參數便是控制分頁的參數。這里只爬取了25頁就爬完,我們可以去瀏覽器中驗證一下,是不是真的只有25頁,驗證后確實只有25頁!
六、分析影評
數據抓取下來之后,我們就來使用詞云分析一下這部電影吧!
基于使用詞云分析的案例前面已經講過兩個了,所以豬哥只會簡單的講解一下!
1.使用結巴分詞
因為我們下載的影評是一段一段的文字,而我們做的詞云是統計單詞出現的次數,所以需要先分詞!
2.使用詞云分析
最終成果:
從這些詞中我們可以知道這是關于一部關于追尋自我與現實生活的電影。
七、總結
今天我們以爬取豆瓣為例子,學到了不少的東西,來總結一下:
學習如何使用requests庫發起POST請求
學習了如何使用requests庫登錄網站
學習了如何使用requests庫的Session對象保持會話狀態
學習了如何使用正則表達式提取網頁標簽中的內容
▼ 點擊成為社區注冊會員? ? ? ? ??「在看」一下,一起PY!
總結
以上是生活随笔為你收集整理的html登录界面设计代码_Python登录豆瓣并爬取影评的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 阿龙纳斯教授跟随尼摩船长进行了几次海底漫
- 下一篇: python 求组合数最快方法_Pyth