日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程语言 > python >内容正文

python

python soup提取叶子标签_python 利用beautifulSoup提取页面多个标签的文本内容

發(fā)布時(shí)間:2023/12/19 python 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python soup提取叶子标签_python 利用beautifulSoup提取页面多个标签的文本内容 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

初學(xué)beautifulsoup解析庫(kù),拿一個(gè)招聘網(wǎng)頁(yè)練手,想達(dá)到提取多個(gè)標(biāo)簽的文本內(nèi)容,但是目前只可以提取到單個(gè)標(biāo)簽的單個(gè)文本內(nèi)容,多標(biāo)簽的文本如何提取?

from requests.exceptions import RequestException

import requests

from bs4 import BeautifulSoup

def get_one_page(url):

try:

response = requests.get(url)

if response.status_code == 200:

return response.text

return None

except RequestException:

return None

def parse_one_page(html):

soup = BeautifulSoup(html,'lxml')

html = soup.find_all(class_='infolist-row')

for a in html:

print(a.find_all('a')[0])

def main():

url = 'https://www.0951job.com/jobs/jobs-list.php'

html = get_one_page(url)

parse_one_page(html)

if __name__ == '__main__':

main()

頁(yè)面url:https://www.0951job.com/jobs/...

class_='infolist-row'是提取內(nèi)容的主節(jié)點(diǎn),其余元素是副節(jié)點(diǎn)

所以請(qǐng)教大佬,如何提取副節(jié)點(diǎn)文本內(nèi)容并且遍歷以列表形式。是多次解析?

請(qǐng)大佬指點(diǎn)一下,謝謝

總結(jié)

以上是生活随笔為你收集整理的python soup提取叶子标签_python 利用beautifulSoup提取页面多个标签的文本内容的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。