日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬虫beautifulsoup爬当当网_Python爬虫包 BeautifulSoup 递归抓取实例详解_python_脚本之家...

發布時間:2025/3/20 python 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬虫beautifulsoup爬当当网_Python爬虫包 BeautifulSoup 递归抓取实例详解_python_脚本之家... 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Python爬蟲包 BeautifulSoup? 遞歸抓取實例詳解

概要:

爬蟲的主要目的就是為了沿著網絡抓取需要的內容。它們的本質是一種遞歸的過程。它們首先需要獲得網頁的內容,然后分析頁面內容并找到另一個URL,然后獲得這個URL的頁面內容,不斷重復這一個過程。

讓我們以維基百科為一個例子。

我們想要將維基百科中凱文·貝肯詞條里所有指向別的詞條的鏈接提取出來。

# -*- coding: utf-8 -*-

# @Author: HaonanWu

# @Date: 2016-12-25 10:35:00

# @Last Modified by: HaonanWu

# @Last Modified time: 2016-12-25 10:52:26

from urllib2 import urlopen

from bs4 import BeautifulSoup

html = urlopen('http://en.wikipedia.org/wiki/Kevin_Bacon')

bsObj = BeautifulSoup(html, "html.parser")

for link in bsObj.findAll("a"):

if 'href' in link.attrs:

print link.attrs['href']

上面這個代碼能夠將頁面上的所有超鏈接都提取出來。

/wiki/Wikipedia:Protection_policy#semi

#mw-head

#p-search

/wiki/Kevin_Bacon_(disambiguation)

/wiki/File:Kevin_Bacon_SDCC_2014.jpg

/wiki/San_Diego_Comic-Con

/wiki/Philadelphia

/wiki/Pennsylvania

/wiki/Kyra_Sedgwick

首先,提取出來的URL可能會有一些重復的

其次,有一些URL是我們不需要的,如側邊欄、頁眉、頁腳、目錄欄鏈接等等。

所以通過觀察,我們可以發現所有指向詞條頁面的鏈接都有三個特點:

它們都在id是bodyContent的div標簽里

URL鏈接不包含冒號

URL鏈接都是以/wiki/開頭的相對路徑(也會爬到完整的有http開頭的絕對路徑)

from urllib2 import urlopen

from bs4 import BeautifulSoup

import datetime

import random

import re

pages = set()

random.seed(datetime.datetime.now())

def getLinks(articleUrl):

html = urlopen("http://en.wikipedia.org"+articleUrl)

bsObj = BeautifulSoup(html, "html.parser")

return bsObj.find("div", {"id":"bodyContent"}).findAll("a", href=re.compile("^(/wiki/)((?!:).)*$"))

links = getLinks("/wiki/Kevin_Bacon")

while len(links) > 0:

newArticle = links[random.randint(0, len(links)-1)].attrs["href"]

if newArticle not in pages:

print(newArticle)

pages.add(newArticle)

links = getLinks(newArticle)

其中getLinks的參數是/wiki/,并通過和維基百科的絕對路徑合并得到頁面的URL。通過正則表達式捕獲所有指向其他詞條的URL,并返回給主函數。

主函數則通過調用遞歸getlinks并隨機訪問一條沒有訪問過的URL,直到沒有了詞條或者主動停止為止。

這份代碼可以將整個維基百科都抓取下來

from urllib.request import urlopen

from bs4 import BeautifulSoup

import re

pages = set()

def getLinks(pageUrl):

global pages

html = urlopen("http://en.wikipedia.org"+pageUrl)

bsObj = BeautifulSoup(html, "html.parser")

try:

print(bsObj.h1.get_text())

print(bsObj.find(id ="mw-content-text").findAll("p")[0])

print(bsObj.find(id="ca-edit").find("span").find("a").attrs['href'])

except AttributeError:

print("This page is missing something! No worries though!")

for link in bsObj.findAll("a", href=re.compile("^(/wiki/)")):

if 'href' in link.attrs:

if link.attrs['href'] not in pages:

#We have encountered a new page

newPage = link.attrs['href']

print("----------------\n"+newPage)

pages.add(newPage)

getLinks(newPage)

getLinks("")

一般來說Python的遞歸限制是1000次,所以需要人為地設置一個較大的遞歸計數器,或者用其他手段讓代碼在迭代1000次之后還能運行。

感謝閱讀,希望能幫助到大家,謝謝大家對本站的支持!

總結

以上是生活随笔為你收集整理的python爬虫beautifulsoup爬当当网_Python爬虫包 BeautifulSoup 递归抓取实例详解_python_脚本之家...的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。