日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程语言 > python >内容正文

python

python爬取音乐_利用Python对网易云音乐进行爬取!无所不爬的爬虫啊!

發(fā)布時(shí)間:2025/3/20 python 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬取音乐_利用Python对网易云音乐进行爬取!无所不爬的爬虫啊! 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

今天,我們利用Python 中的selenium爬取網(wǎng)易云音樂(lè)中林俊杰《將故事寫(xiě)成我們》的評(píng)論,具體界面如下:

私信小編01 獲取數(shù)十套PDF!爬蟲(chóng) web都有的呢!

具體代碼如下:

#此程序用來(lái)爬取網(wǎng)易云音樂(lè)中《將故事寫(xiě)成我們》的評(píng)論,主要包含用戶名和評(píng)論 #其中csv文件保存了用戶名和評(píng)論,txt文件只保存了評(píng)論 from selenium import webdriver import time import csv import bs4 from selenium.webdriver.common.by import By from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.support.wait import WebDriverWait url='https://music.163.com/#/song?id=1391477429' #翻頁(yè)的函數(shù) def next_page():ckl = driver.find_element_by_link_text('下一頁(yè)')driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")ckl.click()wait = WebDriverWait(driver, 10)wait.until(EC.presence_of_element_located((By.CLASS_NAME,'itm')))content = driver.page_sourcecontent = content.replace('<br />', 'n') # 輸出時(shí)按照網(wǎng)頁(yè)上的格式換行保存評(píng)論內(nèi)容html = bs4.BeautifulSoup(content, 'lxml')return html if __name__ == '__main__':driver = webdriver.Chrome()driver.get(url)time.sleep(5)list_info = []time.sleep(1)#首先找到g_iframe這個(gè)框架,不然直接找找不到frame = driver.find_element_by_id('g_iframe')driver.switch_to.frame(frame)time.sleep(2)#翻頁(yè)是因?yàn)榈谝淮沃苯语@示最火的15條評(píng)論,翻頁(yè)再翻回去就沒(méi)有那15條評(píng)論了# 先翻一頁(yè)sec=driver.find_element_by_link_text('下一頁(yè)')driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")sec.click()time.sleep(1)#再回到第一頁(yè)fir=driver.find_element_by_link_text('上一頁(yè)')fir.click()time.sleep(1)# 先爬取首頁(yè)的評(píng)論datas = driver.find_elements_by_css_selector('div.cntwrap > div:nth-child(1) > div')for i in datas:data=i.textname=data[:data.index(':')]comment=data[data.index(':')+1:]list_info.append([name,comment])# print(list_info)# 爬取后續(xù)的頁(yè)面評(píng)論for i in range(200):time.sleep(0.5)ht=next_page()ncom=ht.find_all('div',class_='cnt f-brk')for k in ncom:data1=k.textname1=data1[:data1.index(':')]comment1=data1[data1.index(':')+1:]list_info.append([name1,comment1])print(list_info)#將其保存成csv文件with open('將故事寫(xiě)成我們','a') as f:writer=csv.writer(f)writer.writerows(list_info)#將其中的評(píng)論comment部分保存成txt文件with open('將故事寫(xiě)成我們的評(píng)論.txt','a') as f:for i in list_info:f.write(i[1])list_info=[]print('Done')

運(yùn)行結(jié)果如下(只爬取了前201頁(yè)):

這是csv文件中保存的內(nèi)容,txt的內(nèi)容如下:

好了,明天我們利用詞云對(duì)《將故事寫(xiě)成我們》的評(píng)論進(jìn)行繪圖,找到其中的高頻詞,并制作一個(gè)詞云圖

總結(jié)

以上是生活随笔為你收集整理的python爬取音乐_利用Python对网易云音乐进行爬取!无所不爬的爬虫啊!的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国产日韩在线观看一区 | jlzzjlzzjlzz亚洲人| 男生把女生困困的视频 | 9999久久久久 | 99久久久久| 丰满岳乱妇在线观看中字无码 | 国产亚洲色婷婷久久99精品 | 岛国毛片在线观看 | 欧美激情3p| 台湾150部性三级 | 日韩不卡高清视频 | 日韩在线不卡一区 | 黄色在线观看国产 | 亚洲不卡在线视频 | 人人草人人插 | 成人xx视频 | 一级爱爱免费视频 | 欧洲一级黄 | 国产精品免费av一区二区三区 | 国产白浆视频 | 樱花视频在线免费观看 | 999精品视频 | 91久久综合 | 深夜福利网站 | 人妻 校园 激情 另类 | 一区二区三区欧美在线 | 办公室荡乳欲伦交换bd电影 | av黄在线 | 国产美女无遮挡免费视频 | 国产精品久久无码 | 国产成人高清视频 | 久久精品国产99精品国产亚洲性色 | 日韩在线第三页 | 亚洲国产精彩视频 | 狠狠干狠狠搞 | 国产欧美精品一区二区在线播放 | www.欧美国产 | 琪琪免费视频 | 久久爱综合 | 精品人人人 | 国产精品一页 | 永久免费,视频 | 美女一区二区三区四区 | 中文在线8资源库 | 午夜精品久久久内射近拍高清 | 中国黄色网页 | 国产精品热久久 | 久久涩视频 | 日韩三级av| 日本视频在线播放 | 伦理一级片 | 小视频在线观看 | 亚洲人成无码www久久久 | 欧美日韩国产一区二区在线观看 | 精品一区二区三区国产 | 国产精品爱啪在线线免费观看 | 久久黄色片视频 | 91人人澡人人爽人人精品 | 精品一区李梓熙捆绑 | 91免费影片 | 黄色草逼网站 | 久久久久久免费精品 | 色婷婷久久综合中文久久蜜桃av | 欧美三级欧美成人高清 | 性欧美日韩| chinese xxxx videos andvr | 在线视频观看你懂得 | 久久精品国产熟女亚洲AV麻豆 | 国产一区视频在线观看免费 | 国产免费自拍视频 | 成人av在线看 | 黄色成人av | 在线看片日韩 | 日韩激情在线 | 欧美日韩成人一区二区 | 超碰精品在线观看 | 少妇高潮迭起 | 亚洲四虎影院 | 天天操天天干天天爱 | 色婷婷天堂 | 亚洲av鲁丝一区二区三区 | 很黄很污的视频 | 麻豆视频91 | 免费在线视频一区二区 | 蜜桃久久精品成人无码av | 国产青青草视频 | 五月婷婷激情在线 | 公侵犯一区二区三区四区中文字幕 | a级欧美 | 影音先锋亚洲一区 | 一区二区三区黄色片 | 天天插伊人| 中文字幕在线观看三区 | 男人在线视频 | 在线看片你懂的 | 亚洲美女视频在线观看 | 99re5 | 亚洲大片在线观看 | 一区二区成人av |