日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程语言 > python >内容正文

python

python爬取音乐_利用Python对网易云音乐进行爬取!无所不爬的爬虫啊!

發(fā)布時(shí)間:2025/3/20 python 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬取音乐_利用Python对网易云音乐进行爬取!无所不爬的爬虫啊! 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

今天,我們利用Python 中的selenium爬取網(wǎng)易云音樂(lè)中林俊杰《將故事寫(xiě)成我們》的評(píng)論,具體界面如下:

私信小編01 獲取數(shù)十套PDF!爬蟲(chóng) web都有的呢!

具體代碼如下:

#此程序用來(lái)爬取網(wǎng)易云音樂(lè)中《將故事寫(xiě)成我們》的評(píng)論,主要包含用戶名和評(píng)論 #其中csv文件保存了用戶名和評(píng)論,txt文件只保存了評(píng)論 from selenium import webdriver import time import csv import bs4 from selenium.webdriver.common.by import By from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.support.wait import WebDriverWait url='https://music.163.com/#/song?id=1391477429' #翻頁(yè)的函數(shù) def next_page():ckl = driver.find_element_by_link_text('下一頁(yè)')driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")ckl.click()wait = WebDriverWait(driver, 10)wait.until(EC.presence_of_element_located((By.CLASS_NAME,'itm')))content = driver.page_sourcecontent = content.replace('<br />', 'n') # 輸出時(shí)按照網(wǎng)頁(yè)上的格式換行保存評(píng)論內(nèi)容html = bs4.BeautifulSoup(content, 'lxml')return html if __name__ == '__main__':driver = webdriver.Chrome()driver.get(url)time.sleep(5)list_info = []time.sleep(1)#首先找到g_iframe這個(gè)框架,不然直接找找不到frame = driver.find_element_by_id('g_iframe')driver.switch_to.frame(frame)time.sleep(2)#翻頁(yè)是因?yàn)榈谝淮沃苯语@示最火的15條評(píng)論,翻頁(yè)再翻回去就沒(méi)有那15條評(píng)論了# 先翻一頁(yè)sec=driver.find_element_by_link_text('下一頁(yè)')driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")sec.click()time.sleep(1)#再回到第一頁(yè)fir=driver.find_element_by_link_text('上一頁(yè)')fir.click()time.sleep(1)# 先爬取首頁(yè)的評(píng)論datas = driver.find_elements_by_css_selector('div.cntwrap > div:nth-child(1) > div')for i in datas:data=i.textname=data[:data.index(':')]comment=data[data.index(':')+1:]list_info.append([name,comment])# print(list_info)# 爬取后續(xù)的頁(yè)面評(píng)論for i in range(200):time.sleep(0.5)ht=next_page()ncom=ht.find_all('div',class_='cnt f-brk')for k in ncom:data1=k.textname1=data1[:data1.index(':')]comment1=data1[data1.index(':')+1:]list_info.append([name1,comment1])print(list_info)#將其保存成csv文件with open('將故事寫(xiě)成我們','a') as f:writer=csv.writer(f)writer.writerows(list_info)#將其中的評(píng)論comment部分保存成txt文件with open('將故事寫(xiě)成我們的評(píng)論.txt','a') as f:for i in list_info:f.write(i[1])list_info=[]print('Done')

運(yùn)行結(jié)果如下(只爬取了前201頁(yè)):

這是csv文件中保存的內(nèi)容,txt的內(nèi)容如下:

好了,明天我們利用詞云對(duì)《將故事寫(xiě)成我們》的評(píng)論進(jìn)行繪圖,找到其中的高頻詞,并制作一個(gè)詞云圖

總結(jié)

以上是生活随笔為你收集整理的python爬取音乐_利用Python对网易云音乐进行爬取!无所不爬的爬虫啊!的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。