日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬虫——利用BeautifulSoup4爬取糗事百科的段子

發布時間:2025/4/14 python 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬虫——利用BeautifulSoup4爬取糗事百科的段子 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
1 import requests 2 from bs4 import BeautifulSoup as bs 3 4 #獲取單個頁面的源代碼網頁 5 def gethtml(pagenum): 6 url = 'http://www.qiushibaike.com/hot/page/'+str(pagenum)+'/?s=4949992' 7 req = requests.get(url,headers = Headers) 8 html = req.text 9 #print(html) 10 return html 11 12 #獲取單個頁面的所有段子 13 def getitems(pagenum): 14 html = gethtml(pagenum) 15 soup = bs(html,"html.parser") 16 f = soup.find_all('div','content') 17 items =[] 18 for x in f: 19 #print(x.get_text()) 20 items.append(x.get_text()) 21 #print(items) 22 return items 23 24 #分別打印單個頁面的所有段子 25 def getduanzi(pagenum): 26 n = 0 27 for x in getitems(pagenum): 28 n +=1 29 print('第%d條段子:\n%s' % (n,x)) 30 31 #分別打印所有頁面的段子 32 def getall(bginpage,endpage): 33 34 try: 35 for pagenum in range(int(bginpage),int(endpage)+1): 36 print(('----------華麗麗的分割線【第%d頁】----------'% pagenum).center(66)) 37 getduanzi(pagenum) 38 except: 39 print('頁碼輸入錯誤,只接收正整數輸入。') 40 41 if __name__ == '__main__': 42 43 Headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'} 44 bginpage = input('輸入起始頁:').strip() 45 endpage = input('輸入終止頁:').strip() 46 getall(bginpage,endpage) 47 48

?

轉載于:https://www.cnblogs.com/gopythoner/p/6337703.html

總結

以上是生活随笔為你收集整理的python爬虫——利用BeautifulSoup4爬取糗事百科的段子的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。