日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬虫学习(一)

發布時間:2025/3/21 python 14 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬虫学习(一) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

基于python2.7

get與post:

url = "http://zzk.cnblogs.com" urllib.urlopen(url)----->get方法name = urllib.urlencode({"k":"b"}) urllib.urlopen(url+name)----->pst方法

開發者工具中form表單的method選項為post,那么必須使用post方法。

urllib:

import urllib import rereponse = urllib.urlopen("https://www.baidu.com") #打開指定的網頁,返回網頁所有信息 reponse_code = reponse.getcode() #獲取狀態碼 reponse_body = reponse.read() #獲取網頁內容 #直接保存網頁地址的內容到指定的文件 save = urllib.urlretrieve("https://www.baidu.com", filename="/home/guido/python/baidu.html") images = re.findall(r"src='(.*?\.jpg)'", reponse_body) #利用正則表達式匹配數據 urllib.urlretrieve(images[0], filename="/home/guido/python/baidu_images.html")

拼接鏈接格式

import urllib parament = urllib.urlencode({"t":"b", "w":"ios"}) url = ("http://zzk.cnblogs.com/s?"+parament) print(url)執行結果: http://zzk.cnblogs.com/s?t=b&w=ios

  

urllib2:

import urllib2 url = "http://www.phpno.com"
#偽造瀏覽器請求頭 send_headers = {"Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8","Accept-Encoding":"gzip, deflate, sdch","Accept-Language":"zh-CN,zh;q=0.8","Cache-Control":"max-age=0","Connection":"keep-alive","Cookie":"ASPSESSIONIDCCTRDBQT=OJNFDDEANPLCEFLECFILODNN; Hm_lvt_39dcd5bd05965dcfa70b1d2457c6dcae=1484820976,1484821014,1484821053; Hm_lpvt_39dcd5bd05965dcfa70b1d2457c6dcae=1484821053","Host":"www.nm3dp.com","Referer":"https://www.baidu.com/link?url=Q_AEn1rb05AX6miw616Tx5bIWILq5K_FpUQl_eyJ7TS&wd=&eqid=cb712bbf00052caf00000003588091e9","Upgrade-Insecure-Requests":"1","User-Agent":"Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36" } req = urllib2.Request(url, headers=send_headers) #合并瀏覽器向服務器發送的內容 r = urllib2.urlopen(req) print(r.read())

?

Beautiful Soup

response = urllib.uelopen("http://www.3jy.com/")

html = response.read()

創建beautifulsoup對象:

soup = Beautifulsoup(html)

格式化輸出soup對象的內容:

print(soup.prettify())

找標簽:

soup.title soup.head soup.b soup.a

找屬性:

soup.p.attrs

獲取文字:

soup.p.string

css選擇器:

soup.select('title') 通過標簽名查找soup.select('.sister') 通過類名查找soup.select('#link1') 通過ID名查找soup.select(p link1) 組合查找soup.select('head>title') 直接子標簽查找soup.select('a[class='sister']') 屬性查找soup.p['class'] 獲取標簽內某個屬性的值(內容)

通過索引的方式把select的返回值列表,又轉換成可以用select方法的對象,可以進一步操作

aa = soup.select('body') bb = aa[o] cc = bb.select('a[class='sister']')

?

轉載于:https://www.cnblogs.com/Guido-admirers/p/6307739.html

總結

以上是生活随笔為你收集整理的python爬虫学习(一)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 三度诱惑免费版电影在线观看 | 国产在线观看不卡 | 亚洲色图35p | 蜜桃一区二区 | 日韩欧美国产一区二区三区在线观看 | 国产一级色 | 手机看片在线观看 | 一区二区视屏 | 视频在线观看免费大片 | 亚洲天堂男人天堂 | 91成人高清 | 久久精品a亚洲国产v高清不卡 | 国产精品系列在线观看 | 国产激情二区 | 亚洲av无码一区二区三区dv | 天天操天天干天天 | 超碰777| gogo亚洲国模私拍人体 | 五十路熟母 | 午夜高清 | 新国产视频 | 激情内射人妻1区2区3区 | 中文字幕在线视频一区 | 亚洲日本网站 | 91人人干| www.亚洲激情 | 日本女人黄色 | 九色丨蝌蚪丨成人 | 国产精品二区一区 | 伊人情人综合 | 色戒av| 日韩av不卡在线观看 | 成熟妇人a片免费看网站 | 一区精品在线 | 日韩在线观看不卡 | 亚洲美女视频 | 两根大肉大捧一进一出好爽视频 | 亚洲精品h | 国产高潮流白浆喷水视频 | 日日夜夜操操 | 色窝窝无码一区二区三区 | 久久久久久色 | 99一级片| 黄色观看网站 | 国产高潮视频在线观看 | 日本女优网址 | 亚洲一级在线播放 | 精品五月天 | 韩国日本美国免费毛片 | 一本一道久久综合狠狠老精东影业 | 免费看国产片在线观看 | 精品久久久久久中文字幕 | 日本一区电影 | 国产欧美在线观看视频 | 蜜桃av噜噜一区二区三区 | 黄色一级国产 | 免费伊人 | hd丰满圆润的女人hd | 黄色一级片. | 亚洲一区二区视频在线观看 | 最新av电影网站 | 久久艹中文字幕 | www在线视频 | 午夜成人亚洲理伦片在线观看 | 欧美日韩亚洲在线 | 一区二区三区精品视频 | 日本不卡一区视频 | 亚洲av无码一区二区三区网站 | 国产亚洲精品精品国产亚洲综合 | 国内福利视频 | 色中文字幕 | a级黄色在线观看 | 在线观看国产精品一区 | 丰满岳乱妇国产精品一区 | 免费高清成人 | 亚洲天天做 | 精品人妻人伦一区二区有限公司 | 美女网站污 | 国产精品无码一区二区三区免费 | 久久国产精品网站 | 亚洲精品电影 | 国产精品亚洲五月天丁香 | 福利网站在线 | 国产真人做爰毛片视频直播 | 国产精品一区在线观看 | 亚洲成人动漫在线观看 | 国产成人精品国内自产拍免费看 | 96av在线 | 国产亚洲av片在线观看18女人 | 亚洲AV午夜福利精品一级无码 | 亚洲一区二区久久久 | 日韩激情文学 | 国产精品男女视频 | 蜜桃视频污 | 国产精品成人99一区无码 | 91视频在线视频 | 中文字幕在线官网 | 对白刺激国产子与伦 | 一区二区欧美在线观看 |