日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

爬虫实战:Requests+BeautifulSoup 爬取京东内衣信息并导入表格(python)

發布時間:2024/9/30 python 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 爬虫实战:Requests+BeautifulSoup 爬取京东内衣信息并导入表格(python) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

準備工作

假如我們想把京東內衣類商品的信息全部保存到本地,通過手工復制粘貼將是一項非常龐大的工程,此時,可以用python爬蟲實現。
第一步:分析網頁地址

起始網頁地址

起始網頁地址

https://search.jd.com/Search?keyword=%E5%86%85%E8%A1%A3%E5%A5%B3&suggest=4.def.0.base&wq=%E5%86%85%E8%A1%A3%E5%A5%B3&page=1&s=56&click=1

(在這里你會看到,明明在瀏覽器URL欄看到的是中文,但是復制url,粘貼到記事本或代碼里面,就會變成如下這樣?)
在很多網站的URL中對一些get的參數或關鍵字進行編碼,所以我們復制出來的時候,會出現問題。但復制過來的網址可以直接打開。本例子不用管這個。

那么,怎樣才能自動爬取第一頁以外的其他頁面,打開第三頁,網頁地址如下,分析發現和第一頁區別在于:第一頁最后&page=1,第三頁&page=3
我們可以想到自動獲取多個網頁的方法,可以for循環實現,每次循環后,page+1

第三頁網址如圖

https://search.jd.com/Search?keyword=%E5%86%85%E8%A1%A3%E5%A5%B3&suggest=4.def.0.base&wq=%E5%86%85%E8%A1%A3%E5%A5%B3&page=3&s=56&click=1

第一步:解析代碼

先選擇商品
一個li標簽為一個商品

然后選擇具體信息

這部分自己慢慢研究網頁源代碼吧

第二步:代碼

from bs4 import BeautifulSoup import numpy as np import requests from requests.exceptions import RequestException import pandas as pd #讀取網頁 def craw(url,page):try:headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36"}html1 = requests.request("GET", url, headers=headers,timeout=10)html1.encoding ='utf-8' # 加編碼,重要!轉換為字符串編碼,read()得到的是byte格式的html=html1.textreturn htmlexcept RequestException:#其他問題print('讀取error')return None#解析網頁并保存數據到表格 def pase_page(url,page):html=craw(url,page)html=str(html)if html is not None:soup = BeautifulSoup(html, 'lxml')"---先選擇商品--"shangping=soup.select('#J_goodsList ul li')for li in shangping:"---名稱---"name=li.select('.p-name.p-name-type-2 em')name=[i.get_text() for i in name]"---價格---"price = li.select('.p-price i')price = [i.get_text() for i in price]"---店鋪---"shop=li.select('.p-shop a')shop= [i.get_text() for i in shop]if(len(name)!= 0)and (len(price)!= 0) and ( len(shop) != 0):#print('名稱:{0} ,價格{1},店鋪名:{2}'.format(name, price, shop))information=[name,price,shop]information=np.array(information)information = information.reshape(-1,3)information=pd.DataFrame(information,columns=['名稱','價格','店鋪'])if page == 1:information.to_csv('京東文胸數據1.csv', mode='a+', index=False) # mode='a+'追加寫入else:information.to_csv('京東文胸數據1.csv', mode='a+', index=False, header=False) # mode='a+'追加寫入else:print('解析error')for i in range(1,10):#遍歷網頁1-10url="https://search.jd.com/Search?keyword=%E5%86%85%E8%A1%A3%E5%A5%B3&suggest=4.def.0.base&wq=%E5%86%85%E8%A1%A3%E5%A5%B3&page="+str(i)+"&s=56&click=1"pase_page(url,i)print('第{0}頁讀取成功'.format(i)) print('結束')

本例子中我只選擇了商品 名,價格,店鋪名。你可以選擇更多信息存取

總結

以上是生活随笔為你收集整理的爬虫实战:Requests+BeautifulSoup 爬取京东内衣信息并导入表格(python)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 亚洲欧美高清视频 | 韩国精品久久久 | 男女涩涩网站 | 99国产精品99久久久久久粉嫩 | 成人在线观看网站 | 成人污在线观看 | 91爱看 | 欧美福利在线视频 | 天堂在线中文网 | 成人午夜av在线 | 中文字幕不卡在线 | a猛片| 国产精品色片 | 亚洲成人伊人 | 欧美日韩中文字幕一区二区 | 欧洲精品久久久久毛片完整版 | 国产又粗又大又爽视频 | 国产真实夫妇交换视频 | 风间由美在线观看 | 波多野结衣在线一区二区 | 欧美日韩一区二区三区不卡视频 | 视频一区在线观看 | 国产精品视频一二三区 | 秘密爱大尺度做爰呻吟 | 亚洲欧美精品一区二区三区 | 中文字幕一区二区三区又粗 | 欧美成在线观看 | 日批视频免费观看 | 日韩av一二三| 日韩国产精品一区二区 | 欧美人妖乱大交 | 中文有码在线观看 | 国产亚洲精品网站 | 国产精品一区二区麻豆 | 中国a一片一级一片 | 黄色日韩视频 | 中国毛片基地 | 久久国产经典 | 成人公开免费视频 | 吸咬奶头狂揉60分钟视频 | 美女又爽又黄视频毛茸茸 | 1区2区3区视频 | 99激情视频 | 永久免费未满 | 国产免费美女 | 成人学院中文字幕 | 未满十八18禁止免费无码网站 | a级黄色小说 | 色版视频 | 91久久综合亚洲鲁鲁五月天 | 亚洲国产精品18久久久久久 | 四虎免费在线观看 | 久久人| 午夜啪啪福利视频 | 亚洲国产精品人人爽夜夜爽 | 天天尻| 人妻饥渴偷公乱中文字幕 | 特大黑人巨交性xxxx | 亚洲男女视频在线观看 | 依人综合 | 精品少妇无码av无码专区 | 亚洲av无码片一区二区三区 | 特黄一级大片 | 在线免费看黄 | 中文字幕乱码无码人妻系列蜜桃 | 美女少妇直播 | h片免费观看| xxxxhd欧美 | 亚洲精品视频网 | 男人狂揉女人下部视频 | 久久免费看视频 | 奇米影音| 中国一及毛片 | 日韩手机在线视频 | 日本人与黑人做爰视频 | 伊人网视频 | 日韩中文字幕精品 | 日韩欧美在线中文字幕 | 嫩草嫩草嫩草嫩草嫩草嫩草 | 国产无套在线观看 | 色狠狠一区二区三区香蕉 | 亚洲久视频| 福利一区在线观看 | 在线 日本 制服 中文 欧美 | 在线天堂资源 | 久久av色 | 欧美 日韩 国产 中文 | 日韩欧美一区二区三区四区 | 亚洲xx网 | 日本无遮挡边做边爱边摸 | 国产二级一片内射视频播放 | 成人av电影在线播放 | 蜜桃久久久久久久 | 短篇山村男同肉耽h | 精品无码一区二区三区 | av无码精品一区二区三区 | 成人a级片| av资源站| 波多在线视频 |