日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬取天猫_Python爬取天猫商品数据

發布時間:2023/12/14 python 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬取天猫_Python爬取天猫商品数据 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

使用教程點擊這里下載下載chrome瀏覽器

查看chrome瀏覽器的版本號,點擊這里下載對應版本號的chromedriver驅動

pip安裝下列包pip install selenium

pip install pyquery

點擊這里登錄微博,并通過微博綁定淘寶賬號密碼

在main中填寫chromedriver的絕對路徑

在main中填寫微博賬號密碼

#改成你的chromedriver的完整路徑地址

chromedriver_path = "/Users/bird/Desktop/chromedriver.exe"

#改成你的微博賬號

weibo_username = "改成你的微博賬號"

#改成你的微博密碼

weibo_password = "改成你的微博密碼"

演示圖片

# -*- coding: utf-8 -*-

from selenium import webdriver

from selenium.webdriver.common.by import By

from selenium.webdriver.support.ui import WebDriverWait

from selenium.webdriver.support import expected_conditions as EC

from selenium.webdriver import ActionChains

from pyquery import PyQuery as pq

from time import sleep

#定義一個taobao類

class taobao_infos:

#對象初始化

def __init__(self):

url = 'https://login.taobao.com/member/login.jhtml'

self.url = url

options = webdriver.ChromeOptions()

options.add_experimental_option("prefs", {"profile.managed_default_content_settings.images": 2}) # 不加載圖片,加快訪問速度

options.add_experimental_option('excludeSwitches', ['enable-automation']) # 此步驟很重要,設置為開發者模式,防止被各大網站識別出來使用了Selenium

self.browser = webdriver.Chrome(executable_path=chromedriver_path, options=options)

self.wait = WebDriverWait(self.browser, 10) #超時時長為10s

#延時操作,并可選擇是否彈出窗口提示

def sleep_and_alert(self,sec,message,is_alert):

for second in range(sec):

if(is_alert):

alert = "alert(\"" + message + ":" + str(sec - second) + "秒\")"

self.browser.execute_script(alert)

al = self.browser.switch_to.alert

sleep(1)

al.accept()

else:

sleep(1)

#登錄淘寶

def login(self):

# 打開網頁

self.browser.get(self.url)

# 自適應等待,點擊密碼登錄選項

self.browser.implicitly_wait(30) #智能等待,直到網頁加載完畢,最長等待時間為30s

self.browser.find_element_by_xpath('//*[@class="forget-pwd J_Quick2Static"]').click()

# 自適應等待,點擊微博登錄宣傳

self.browser.implicitly_wait(30)

self.browser.find_element_by_xpath('//*[@class="weibo-login"]').click()

# 自適應等待,輸入微博賬號

self.browser.implicitly_wait(30)

self.browser.find_element_by_name('username').send_keys(weibo_username)

# 自適應等待,輸入微博密碼

self.browser.implicitly_wait(30)

self.browser.find_element_by_name('password').send_keys(weibo_password)

# 自適應等待,點擊確認登錄按鈕

self.browser.implicitly_wait(30)

self.browser.find_element_by_xpath('//*[@class="btn_tip"]/a/span').click()

# 直到獲取到淘寶會員昵稱才能確定是登錄成功

taobao_name = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.site-nav-bd > ul.site-nav-bd-l > li#J_SiteNavLogin > div.site-nav-menu-hd > div.site-nav-user > a.site-nav-login-info-nick ')))

# 輸出淘寶昵稱

print(taobao_name.text)

# 獲取天貓商品總共的頁數

def search_toal_page(self):

# 等待本頁面全部天貓商品數據加載完畢

good_total = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#J_ItemList > div.product > div.product-iWrap')))

#獲取天貓商品總共頁數

number_total = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.ui-page > div.ui-page-wrap > b.ui-page-skip > form')))

page_total = number_total.text.replace("共","").replace("頁,到第頁 確定","").replace(",","")

return page_total

# 翻頁操作

def next_page(self, page_number):

# 等待該頁面input輸入框加載完畢

input = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.ui-page > div.ui-page-wrap > b.ui-page-skip > form > input.ui-page-skipTo')))

# 等待該頁面的確定按鈕加載完畢

submit = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.ui-page > div.ui-page-wrap > b.ui-page-skip > form > button.ui-btn-s')))

# 清除里面的數字

input.clear()

# 重新輸入數字

input.send_keys(page_number)

# 強制延遲1秒,防止被識別成機器人

sleep(1)

# 點擊確定按鈕

submit.click()

# 模擬向下滑動瀏覽

def swipe_down(self,second):

for i in range(int(second/0.1)):

js = "var q=document.documentElement.scrollTop=" + str(300+200*i)

self.browser.execute_script(js)

sleep(0.1)

js = "var q=document.documentElement.scrollTop=100000"

self.browser.execute_script(js)

sleep(0.2)

# 爬取天貓商品數據

def crawl_good_data(self):

# 對天貓商品數據進行爬蟲

self.browser.get("https://list.tmall.com/search_product.htm?q=羽毛球")

# 獲取天貓商品總共的頁數

page_total = self.search_toal_page()

print("總共頁數" + page_total)

# 遍歷所有頁數

for page in range(2,int(page_total)):

# 等待該頁面全部商品數據加載完畢

good_total = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#J_ItemList > div.product > div.product-iWrap')))

# 等待該頁面input輸入框加載完畢

input = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.ui-page > div.ui-page-wrap > b.ui-page-skip > form > input.ui-page-skipTo')))

# 獲取當前頁

now_page = input.get_attribute('value')

print("當前頁數" + now_page + ",總共頁數" + page_total)

# 獲取本頁面源代碼

html = self.browser.page_source

# pq模塊解析網頁源代碼

doc = pq(html)

# 存儲天貓商品數據

good_items = doc('#J_ItemList .product').items()

# 遍歷該頁的所有商品

for item in good_items:

good_title = item.find('.productTitle').text().replace('\n',"").replace('\r',"")

good_status = item.find('.productStatus').text().replace(" ","").replace("筆","").replace('\n',"").replace('\r',"")

good_price = item.find('.productPrice').text().replace("¥", "").replace(" ", "").replace('\n', "").replace('\r', "")

good_url = item.find('.productImg').attr('href')

print(good_title + " " + good_status + " " + good_price + " " + good_url + '\n')

# 精髓之處,大部分人被檢測為機器人就是因為進一步模擬人工操作

# 模擬人工向下瀏覽商品,即進行模擬下滑操作,防止被識別出是機器人

self.swipe_down(2)

# 翻頁,下一頁

self.next_page(page)

# 等待滑動驗證碼出現,超時時間為5秒,每0.5秒檢查一次

# 大部分情況不會出現滑動驗證碼,所以如果有需要可以注釋掉下面的代碼

# sleep(5)

WebDriverWait(self.browser, 5, 0.5).until(EC.presence_of_element_located((By.ID, "nc_1_n1z"))) #等待滑動拖動控件出現

try:

swipe_button = self.browser.find_element_by_id('nc_1_n1z') #獲取滑動拖動控件

#模擬拽托

action = ActionChains(self.browser) # 實例化一個action對象

action.click_and_hold(swipe_button).perform() # perform()用來執行ActionChains中存儲的行為

action.reset_actions()

action.move_by_offset(580, 0).perform() # 移動滑塊

except Exception as e:

print ('get button failed: ', e)

if __name__ == "__main__":

# 使用之前請先查看當前目錄下的使用說明文件README.MD

# 使用之前請先查看當前目錄下的使用說明文件README.MD

# 使用之前請先查看當前目錄下的使用說明文件README.MD

chromedriver_path = "/Users/bird/Desktop/chromedriver.exe" #改成你的chromedriver的完整路徑地址

weibo_username = "改成你的微博賬號" #改成你的微博賬號

weibo_password = "改成你的微博密碼" #改成你的微博密碼

a = taobao_infos()

a.login() #登錄

a.crawl_good_data() #爬取天貓商品數據

總結

以上是生活随笔為你收集整理的python爬取天猫_Python爬取天猫商品数据的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。