日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬取微博评论_用 python 爬取微博评论并手动分词制作词云

發布時間:2023/12/10 python 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬取微博评论_用 python 爬取微博评论并手动分词制作词云 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

最近上海好像有舉行個什么維吾爾族的秘密時裝秀,很好看的樣子,不過我還沒時間看。但是微博上已經吵翻了天,原因是

好吧,這不是我們關心的,我的心里只有學習

我愛學習

Python 爬蟲

本次爬取的是這條微博

這條微博

微博的移動版網頁還是比較好爬的,首先打開這條 微博的頁面 ,然后按下 F12,打開開發者工具,選擇 network 面板

然后鼠標滾輪向下滑,可以看到 network 面板產生新的請求,我們選擇按 Type 排序,找到 xhr 類型

尋找評論接口

可以看到出現了兩個奇怪的請求,它們的尾部都跟著 page = * ,我們選擇其中一個雙擊,來到了一個新的頁面

評論的 json 數據

這就是評論的 json 格式數據,這樣,我們就找到了微博評論的 API 接口。

接下來就是 python 爬蟲代碼,有了 API 接口,爬蟲也就不難寫了

scrap_ximengyao_weibo.py

import requests

import json

import re

# source_wei_wo_url = "https://m.weibo.cn/status/4176281144304232"

def get_comment(head_url, count):

i = 1

fp = open("奚夢瑤.txt", "a", encoding="utf8")

while i <= count:

try:

url = head_url + str(i)

resp = requests.get(url)

resp.encoding = resp.apparent_encoding

comment_json = json.loads(resp.text)

comments_list = comment_json["data"]

for commment_item in comments_list:

username = commment_item["user"]["screen_name"]

comment = commment_item["text"]

label_filter = re.compile(r'?\w+[^>]*>', re.S)

comment = re.sub(label_filter, '', comment)

fp.write(comment)

print(i)

except Exception as e:

print(str(i) + "遇到異常")

continue

i += 1

fp.close()

if __name__ == "__main__":

head_url = "https://m.weibo.cn/api/comments/show?id=4176281144304232&page="

get_comment(head_url, 40000)

本來每請求一次接口就會返回來 10 條評論,目前她微博有 36 萬評論,所以我把 while 循環設為了請求 40000 次,但是要全部爬完花的時間太長了,我可沒那閑工夫一直等著它跑完。所以爬到 1 萬多次的時候我就手動停止爬蟲了

爬蟲運行停止之后,我們在爬蟲的同名目錄下得到了一個 “奚夢瑤.txt”,大約包含了10萬條網友評論。有的小伙伴就要開始問了,既然我們拿到了評論文本,現在是不是就可以進行分詞了?

Too Young!

由于評論里包含了太多的 emoji 表情,直接分詞的話會導致解碼錯誤,所以我們還要再對評論進行一次過濾,過濾掉非中文字符,準確來說,是過濾掉非 GBK 編碼字符

評論過濾

過濾的原理很簡單,就是用 python 把“奚夢瑤.txt”這個文件讀取進來,換個編碼,然后再寫入一個新文件“ximengyao.txt”

filter_ximengyao_weibo.py

fp = open("奚夢瑤.txt", encoding="utf-8", errors="ignore")

new_fp = open("ximengyao.txt", "w", encoding="gbk", errors="ignore")

try:

all_text = fp.read()

new_fp.write(all_text)

finally:

fp.close()

new_fp.close()

分詞

分詞的解決方案有很多,本來我是想直接用 圖悅 在線分詞生成詞云的,但是文本太多了,圖悅已經奔潰,后來我選擇了 結巴分詞 來手動分詞

首先安裝結巴分詞

pip install jieba

我們的目的是選取評論中詞頻最高的 100 個詞組,以降序將他們排列,然后做成詞云。我在簡書找到了一位網友寫的博客,正好滿足我們的需求

用jieba分詞提取關鍵詞做漂亮的詞云

其實接下來你就可以去看他的博客了

這里貼一下我的分詞代碼,畢竟我是一個有始有終的人

jieba_ximengyao_weibo.py

import jieba.analyse

path = 'ximengyao.txt'

file_in = open(path, 'r')

content = file_in.read()

try:

# jieba.analyse.set_stop_words('你的停用詞表路徑')

tags = jieba.analyse.extract_tags(content, topK=100, withWeight=True)

for v, n in tags:

#權重是小數,為了湊整,乘了一萬

print(v + '\t' + str(int(n * 10000)))

finally:

file_in.close()

有一點需要注意,這個 詞云制作 網站是不支持中文字體的,所以你需要從網上下載一款中文字體,然后添加進去。

生成詞云圖

???

詞頻最高的詞居然是“回復”

我這暴脾氣

不過這也是情理之中,原創的評論有限,許多都是吵架,蓋樓的。這里把我們把“回復”這個詞刪掉,用剩下的詞重新制作一個詞云

刪掉“回復”

最終結果

詞云圖

鄭重聲明:最終結果不代表本人觀點!

再見!

總結

以上是生活随笔為你收集整理的python爬取微博评论_用 python 爬取微博评论并手动分词制作词云的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。