日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬微信群_利用Python爬虫实现30秒爬取500篇微信文章

發(fā)布時間:2023/12/14 python 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬微信群_利用Python爬虫实现30秒爬取500篇微信文章 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

引言

由于工作需要,給公司前端做了一個小工具,使用python語言,爬取搜狗微信的微信文章,附搜狗微信官方網址

?

從熱門到時尚圈,并且包括每個欄目下面的額加載更多內容選項

?

一共加起來500+篇文章

需求

爬取這些文章獲取到每篇文章的標題和右側的圖片,將爬取到的圖片以規(guī)定的命名方式輸出到規(guī)定文件夾中,并將文章標題和圖片名稱對應輸出到Excel和txt中

效果

?

?

?

?

完整代碼如下

Package Version

------------------------- ---------

altgraph 0.17

certifi 2020.6.20

chardet 3.0.4

future 0.18.2

idna 2.10

lxml 4.5.2

pefile 2019.4.18

pip 19.0.3

pyinstaller 4.0

pyinstaller-hooks-contrib 2020.8

pywin32-ctypes 0.2.0

requests 2.24.0

setuptools 40.8.0

urllib3 1.25.10

XlsxWriter 1.3.3

xlwt 1.3.0

# !/usr/bin/python

# -*- coding: UTF-8 -*-

import os

import requests

import xlsxwriter

from lxml import etree

# 請求微信文章的頭部信息

headers = {

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',

'Accept-Encoding': 'gzip, deflate, br',

'Accept-Language': 'zh-CN,zh;q=0.9',

'Host': 'weixin.sogou.com',

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36'

}

# 下載圖片的頭部信息

headers_images = {

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',

'Accept-Encoding': 'gzip, deflate',

'Accept-Language': 'zh-CN,zh;q=0.9',

'Host': 'img01.sogoucdn.com',

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36'

}

a = 0

all = []

# 創(chuàng)建根目錄

save_path = './微信文章'

folder = os.path.exists(save_path)

if not folder:

os.makedirs(save_path)

# 創(chuàng)建圖片文件夾

images_path = '%s/圖片' % save_path

folder = os.path.exists(images_path)

if not folder:

os.makedirs(images_path)

for i in range(1, 9):

for j in range(1, 5):

url = "https://weixin.sogou.com/pcindex/pc/pc_%d/%d.html" % (i, j)

# 請求搜狗文章的url地址

response = requests.get(url=url, headers=headers).text.encode('iso-8859-1').decode('utf-8')

# 構造了一個XPath解析對象并對HTML文本進行自動修正

html = etree.HTML(response)

# XPath使用路徑表達式來選取用戶名

xpath = html.xpath('/html/body/li')

for content in xpath:

# 計數

a = a + 1

# 文章標題

title = content.xpath('./div[@class="txt-box"]/h3//text()')[0]

article = {}

article['title'] = title

article['id'] = '%d.jpg' % a

all.append(article)

# 圖片路徑

path = 'http:' + content.xpath('./div[@class="img-box"]//img/@src')[0]

# 下載文章圖片

images = requests.get(url=path, headers=headers_images).content

try:

with open('%s/%d.jpg' % (images_path, a), "wb") as f:

print('正在下載第%d篇文章圖片' % a)

f.write(images)

except Exception as e:

print('下載文章圖片失敗%s' % e)

# 信息存儲在excel中

# 創(chuàng)建一個workbookx

workbook = xlsxwriter.Workbook('%s/Excel格式.xlsx' % save_path)

# 創(chuàng)建一個worksheet

worksheet = workbook.add_worksheet()

print('正在生成Excel...')

try:

for i in range(0, len(all) + 1):

# 第一行用于寫入表頭

if i == 0:

worksheet.write(i, 0, 'title')

worksheet.write(i, 1, 'id')

continue

worksheet.write(i, 0, all[i - 1]['title'])

worksheet.write(i, 1, all[i - 1]['id'])

workbook.close()

except Exception as e:

print('生成Excel失敗%s' % e)

print("生成Excel成功")

print('正在生成txt...')

try:

with open('%s/數組格式.txt' % save_path, "w") as f:

f.write(str(all))

except Exception as e:

print('生成txt失敗%s' % e)

print('生成txt成功')

print('共爬取%d篇文章' % a)

最后將程序打包成exe文件,在windows系統(tǒng)下可以直接運行程序

?

點贊收藏關注,你的支持是我最大的動力!

總結

以上是生活随笔為你收集整理的python爬微信群_利用Python爬虫实现30秒爬取500篇微信文章的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。