日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

python网络爬虫与信息提取 学习笔记day3

發布時間:2023/12/1 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python网络爬虫与信息提取 学习笔记day3 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Day3:

只需兩行代碼解析html或xml信息??? 具體代碼實現:day3_1??? 注意BeautifulSoup的B和S需要大寫,因為python大小寫敏感

?

import requests r= requests.get("http://python123.io/ws/demo.html") r.text demo = r.text from bs4 import BeautifulSoup soup = BeautifulSoup(demo , "html.parser") print(soup.prettify())

  

BeautifulSoup庫的基本元素:詳參html的基本信息

?

?

from bs4 import BeautifulSoup??????? 語句含義:從bs4庫中引入一個BeautifulSoup的類型

下行遍歷,上行遍歷和平行遍歷:

?

?

?

?爬取中國大學排名

import requests from bs4 import BeautifulSoup import bs4def getHTMLText(url):try:r = requests.get(url, timeout=30)r.raise_for_status()r.encoding = r.apparent_encodingreturn r.textexcept:return ""def fillUnivList(ulist, html):soup = BeautifulSoup(html, "html.parser")for tr in soup.find('tbody').children:if isinstance(tr, bs4.element.Tag):tds = tr('td')ulist.append([tds[0].string, tds[1].string, tds[3].string])def printUnivList(ulist, num):print("{:^10}\t{:^6}\t{:^10}".format("排名","學校名稱","總分"))for i in range(num):u=ulist[i]print("{:^10}\t{:^6}\t{:^10}".format(u[0],u[1],u[2]))def main():uinfo = []url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'html = getHTMLText(url)fillUnivList(uinfo, html)printUnivList(uinfo, 20) # 20 univs main()

  

轉載于:https://www.cnblogs.com/yezhaodan/p/7449785.html

總結

以上是生活随笔為你收集整理的python网络爬虫与信息提取 学习笔记day3的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。