日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

Python爬虫如何去抓取qq音乐的歌手数据?

發(fā)布時間:2024/9/30 python 63 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python爬虫如何去抓取qq音乐的歌手数据? 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

自從學(xué)會爬蟲之后是不是有一種我什么都想爬一下的沖動?今天小千就來教大家如何去抓取qq音樂的歌手?jǐn)?shù)據(jù),項目實操多練習(xí)能更快提升自己哦。

今天的項目目標(biāo)就是獲取 QQ 音樂指定歌手單曲排行指定頁數(shù)的歌曲的歌名、專輯名、播放鏈接,由淺入深,層層遞進(jìn),非常適合剛?cè)腴T的同學(xué)練手。主要涉及的庫有:requests、json、openpyxl。

項目步驟

1.了解 QQ 音樂網(wǎng)站的 robots 協(xié)議(安全)

只禁止播放列表,可以操作

2.進(jìn)入 QQ 音樂主頁

3.輸入任意歌手,比如張杰

4.打開審查元素(快捷鍵 Ctrl+Shift+I)

5.分析網(wǎng)頁源代碼 Elements,發(fā)現(xiàn)無歌曲信息,無法使用 BeautifulSoup,如下圖所示,結(jié)果為空。

6.點擊 Network,看數(shù)據(jù)在不在 XHR(無刷新更新頁面),我的經(jīng)驗是先看 Size 最大的,然后分析 Name,查看 Preview,果然在里面!

將response格式化后顯示內(nèi)容如上

7.點擊 Headers,拿到相關(guān)參數(shù)。如下圖,仔細(xì)觀察url 與 Query String Parameters 參數(shù)的關(guān)系,發(fā)現(xiàn)url 中的 w 代表歌手名,p 代表頁數(shù)

其中:p=1&n=10&w=%E5%BC%A0%E6%9D%B0

8.通過 json 代碼實現(xiàn),首先小試牛刀,爬取第一頁的數(shù)據(jù),url 直接復(fù)制過來。成功!

其中:分析json獲取歌曲列表,獲取播放鏈接

9.引入 params 參數(shù),實現(xiàn)指定歌手、指定頁數(shù)的查詢。

注意代碼url為上一步url中“?”之前的部分, params兩邊的參數(shù)都需要加 ’’,requests.get 添加 params,參數(shù)(也可順便添加 headers 參數(shù))

10.添加存儲功能,保存到本地(Excel)。也可保存為 csv 格式或存入數(shù)據(jù)庫,操作類似。

總結(jié)

爬取qq音樂比爬取豆瓣等網(wǎng)站稍難,所需信息不在源代碼中,需查看xhr。

通過xhr爬取數(shù)據(jù)一般要使用json,格式為:

res = requests.get(url),json = res.json(),list = json[’’][’’]

僅供練手參考,不建議爬取太多數(shù)據(jù),給服務(wù)器增大負(fù)荷。

原文來自千鋒教育。

總結(jié)

以上是生活随笔為你收集整理的Python爬虫如何去抓取qq音乐的歌手数据?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。