日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python算法详解豆瓣_豆瓣爬虫实践-python版

發布時間:2025/3/12 python 21 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python算法详解豆瓣_豆瓣爬虫实践-python版 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

豆瓣登錄,無驗證碼版:

import requests

#starturl = "https://www.douban.com/accounts/login"

loginurl = "https://accounts.douban.com/login"

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36',

'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',

}

fromdata ={'source':'None',

'redir':'https://shanghai.douban.com/',

'form_email':'yourAccount',

'form_password':'password',

'login':'登錄'}

s = requests.Session()

s.headers.update(headers)

resp = s.post(loginurl,fromdata)

with open('douban.html','wb') as f:

f.write(resp.text.encode('utf-8'))

print(resp.status_code)

print(resp.cookies)

s.close()

豆瓣TOP250電影爬蟲

import requests

from bs4 import BeautifulSoup

def getContent(bsItem):

content=[]

content.append(item.find('a')['href'])

film=item.find_all('span',{'class':'title'})

film[0]=film[0].string

if len(film) > 1:

film[1]=film[1].string.replace(u'\xa0','').replace(r'/','')

else:

film.append('無外語名')

content.append(film)

content.append(item.find('span',{'class':'rating_num'}).string)

content.append(item.find('span',{'class':'','property':''}).string)

return content

starturl = 'https://movie.douban.com/top250'

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36',

'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',

}

params={'start':0}

s = requests.Session()

s.headers.update(headers)

curpage = 0

with open('doubanfilm.txt','w',encoding='utf-8') as f:

while(curpage<250):

params['start'] = curpage

resp = s.get(starturl,params=params)

bs = BeautifulSoup(resp.text,'html.parser')

for item in bs.find_all('div',{"class":'info'}):

f.write(str(getContent(item))+'\n')

curpage += 25

print('bug end')

s.close()

python,生活因你而精彩!

總結

以上是生活随笔為你收集整理的python算法详解豆瓣_豆瓣爬虫实践-python版的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。