日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

第六十七期:Python爬虫44万条数据揭秘:如何成为网易音乐评论区的网红段子手

發(fā)布時(shí)間:2023/12/10 python 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 第六十七期:Python爬虫44万条数据揭秘:如何成为网易音乐评论区的网红段子手 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

獲取數(shù)據(jù),其實(shí)邏輯并不復(fù)雜:爬取歌單列表里的所有歌單url、進(jìn)入每篇歌單爬取所有歌曲url,去重、進(jìn)入每首歌曲首頁爬取熱評(píng),匯總。

作者:嗨學(xué)python來源:今日頭條

?

獲取數(shù)據(jù)

其實(shí)邏輯并不復(fù)雜:

  • 爬取歌單列表里的所有歌單url。
  • 進(jìn)入每篇歌單爬取所有歌曲url,去重。
  • 進(jìn)入每首歌曲首頁爬取熱評(píng),匯總。

歌單列表是這樣的:

翻頁并觀察它的url變化,注意下方動(dòng)圖,每次翻頁末尾變化35。

采用requests+pyquery來爬取:

def get_list(): list1 = [] for i in range(0,1295,35): url = 'https://music.163.com/discover/playlist/?order=hot&cat=%E5%8D%8E%E8%AF%AD&limit=35&offset='+str(i) print('已成功采集%i頁歌單\n' %(i/35+1)) data = [] html = restaurant(url) doc = pq(html) for i in range(1,36): # 一頁35個(gè)歌單 a = doc('#m-pl-container > li:nth-child(' + str(i) +') > div > a').attr('href') a1 = 'https://music.163.com/api' + a.replace('?','/detail?') data.append(a1) list1.extend(data) time.sleep(5+random.random()) return list1

這樣我們就可以獲得38頁每頁35篇歌單,共1300+篇歌單。

下面我們需要進(jìn)入每篇歌單爬取所有歌曲url,并且要注意最后“去重”,不同歌單可能包含同一首歌曲。

點(diǎn)開一篇歌單,注意紅色圈出的id。

觀察一下,我們要在每篇歌單下方獲取的信息也就是紅框圈出的這些,利用剛剛爬取到的歌單id和網(wǎng)易云音樂的api可以構(gòu)造出:

不方便看的話我們解析一下json。

  • def get_playlist(url): data = [] doc = get_json(url) obj=json.loads(doc) jobs=obj['result']['tracks'] for job in jobs: dic = {} dic['name']=jsonpath.jsonpath(job,'$..name')[0] #歌曲名稱 dic['id']=jsonpath.jsonpath(job,'$..id')[0] #歌曲ID data.append(dic) return data

    ?

  • 這樣我們就獲取了所有歌單下的歌曲,記得去重。

    #去重 data = data.drop_duplicates(subset=None, keep='first', inplace=True)

    剩下就是獲取每首歌曲的熱評(píng)了,與前面獲取歌曲類似,也是根據(jù)api構(gòu)造,很容易就找到了。

    def get_comments(url,k): data = [] doc = get_json(url) obj=json.loads(doc) jobs=obj['hotComments'] for job in jobs: dic = {} dic['content']=jsonpath.jsonpath(job,'$..content')[0] dic['time']= stampToTime(jsonpath.jsonpath(job,'$..time')[0]) dic['userId']=jsonpath.jsonpath(job['user'],'$..userId')[0] #用戶ID dic['nickname']=jsonpath.jsonpath(job['user'],'$..nickname')[0]#用戶名 dic['likedCount']=jsonpath.jsonpath(job,'$..likedCount')[0] dic['name']= k data.append(dic) return data
  • ?
  • 匯總后就獲得了44萬條音樂熱評(píng)數(shù)據(jù)。

    數(shù)據(jù)分析

    清洗填充一下。

    def data_cleaning(data): cols = data.columns for col in cols: if data[col].dtype == 'object': data[col].fillna('缺失數(shù)據(jù)', inplace = True) else: data[col].fillna(0, inplace = True) return(data)

    按照點(diǎn)贊數(shù)排個(gè)序。

    #排序 df1['likedCount'] = df1['likedCount'].astype('int') df_2 = df1.sort_values(by="likedCount",ascending=False) df_2.head()

    再看看哪些熱評(píng)是被復(fù)制粘貼搬來搬去的。

    #排序 df_line = df.groupby(['content']).count().reset_index().sort_values(by="name",ascending=False) df_line.head()

    第一個(gè)和第三個(gè)只是末尾有沒有句號(hào)的區(qū)別,可以歸為一類。這樣的話,重復(fù)次數(shù)最多個(gè)這句話竟然重復(fù)了412次,額~~

    看看上熱評(píng)次數(shù)次數(shù)最多的是哪位大神?從他的身上我們能學(xué)到什么經(jīng)驗(yàn)?

    df_user = df.groupby(['userId']).count().reset_index().sort_values(by="name",ascending=False) df_user.head()

    按照 user_id 匯總一下,排序。

    成功“捕獲”一枚“段子手”,上熱評(píng)次數(shù)高達(dá)347,我們?cè)倏纯催@位大神究竟都評(píng)論些什么?

    df_user_max = df.loc[(df['userId'] == 101***770)] df_user_max.head()

    這位“失眠的陳先生”看來各種情話嫻熟于手啊,下面就以他舉例來看看如何成為網(wǎng)易云音樂評(píng)論里的熱評(píng)段子手吧。

    數(shù)據(jù)可視化

    先看看這347條評(píng)論的贊數(shù)分布。

    #贊數(shù)分布圖 import matplotlib.pyplot as plt data = df_user_max['likedCount'] #data.to_csv("df_user_max.csv", index_label="index_label",encoding='utf-8-sig') plt.hist(data,100,normed=True,facecolor='g',alpha=0.9) plt.show()

    很明顯,贊數(shù)并不多,大部分都在500贊之內(nèi),幾百贊卻能躋身熱評(píng),這也側(cè)面說明了這些歌曲是比較小眾的,看來是經(jīng)常在新歌區(qū)廣撒網(wǎng)。

    我們使用len() 求出每條評(píng)論的字符串長度,再畫個(gè)分布圖:

    評(píng)論的字?jǐn)?shù)集中在18—30字之間,這說明在留言時(shí)要注意字?jǐn)?shù),保險(xiǎn)的做法是不要太長讓人讀不下去,也不要太短以免不夠經(jīng)典。

    做個(gè)詞云。

    閱讀目錄(置頂)(長期更新計(jì)算機(jī)領(lǐng)域知識(shí))https://blog.csdn.net/weixin_43392489/article/details/102380691

    閱讀目錄(置頂)(長期更新計(jì)算機(jī)領(lǐng)域知識(shí))https://blog.csdn.net/weixin_43392489/article/details/102380882

    閱讀目錄(置頂)(長期科技領(lǐng)域知識(shí))https://blog.csdn.net/weixin_43392489/article/details/102600114

    ?

    總結(jié)

    以上是生活随笔為你收集整理的第六十七期:Python爬虫44万条数据揭秘:如何成为网易音乐评论区的网红段子手的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 9久9久9久女女女九九九一九 | 午夜免费福利视频 | av成人在线免费观看 | 国产午夜无码精品免费看奶水 | 成人av黄色 | 亚洲一区二区在线观看视频 | 国产欧美第一页 | 骚虎av在线 | 麻豆毛片| 麻豆网站在线看 | 99re7| 秘密基地免费观看完整版中文 | av五月 | 国产最新视频 | 国产一区网站 | 亚洲精品中文字幕在线观看 | 国产视频精品视频 | 日韩成人综合 | 激情小说亚洲色图 | 黄色短视频在线观看 | 欧美日韩综合网 | 91精品视频在线免费观看 | 亚洲激情电影在线 | 裸体裸乳免费看 | 日本啪啪网站 | 国产精品久久久久久久久久久久午夜片 | 久久久久久久久影院 | 91 在线视频 | 综合色88| 欧美日韩综合网 | 国产经典一区 | 18无套直看片红桃 | 国产91丝袜在线播放九色 | 国产高清在线免费观看 | 国产欧美日韩精品一区二区三区 | 少妇太紧太爽又黄又硬又爽小说 | 深夜福利一区二区三区 | 国产电影一区二区三区爱妃记 | 草莓视频一区二区三区 | 色啊色 | 精品国产精品 | 91精品国产aⅴ一区二区 | 美女被草网站 | 亚洲美女视频一区 | 91免费看网站 | 欧美日韩一区电影 | 9191国产精品 | 住在隔壁的她动漫免费观看全集下载 | 美女诱惑av | 成全世界免费高清观看 | www.色视频| 在线看片不卡 | 古装做爰无遮挡三级聊斋艳谭 | 无码人妻aⅴ一区二区三区日本 | 亚洲av无码成人精品国产 | 可以直接看av的网址 | 欧美一区二区在线免费观看 | 人妻体体内射精一区二区 | 国产www性 | 久99| 中文字幕在线观看一区二区三区 | 福利一区在线观看 | 一本色道久久综合熟妇 | 修仙淫交(高h)h文 | 亚洲春色www | 国产成人91 | 欧美亚洲图片小说 | 热99视频 | 欧美性视频在线播放 | 裸体男女树林做爰 | 神马久久久久久久 | 五月婷网站| 私人影院毛片 | 日韩毛片中文字幕 | 中文字幕一区二区三区精华液 | 国产福利一区二区三区 | 金瓶风月在线 | 热九九精品| 国产亚洲久一区二区 | 自拍视频在线观看 | av大片网| 国产素人在线观看 | 日本精品一区在线观看 | 日本不卡123 | 在线欧美日韩国产 | 播色屋| 亚洲欧美偷拍一区 | 日韩欧美麻豆 | 国产午夜精品一区 | 久久久久二区 | 欧美日韩免费观看视频 | 天天看天天干 | www.狠狠 | 99成人国产精品视频 | 精品一区二区久久久久久久网站 | 精品少妇一区二区 | 伊人中文字幕在线 | 精品999久久久一级毛片 | 奇米888一区二区三区 |