日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

python作业6月14日

發(fā)布時間:2024/4/17 python 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python作业6月14日 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
# 爬蟲原理 提取有用數(shù)據(jù) 保存 # 互聯(lián)網(wǎng) # 瀏覽器 發(fā)送http請求 # 梨視頻:分析視頻文件 保存到本地 # 今日內(nèi)容 # request模塊的詳細使用 # selenium模塊 # 1 請求庫 # 2 解析庫 # 3 存儲庫 import requests import re # response=requests.get(url='https://www.pearvideo.com/video_1566066') # <a href="video_1461493" class="actplay openapp" target="_blank"> # <div class="video-main"> # <img class="img" src="https://image.pearvideo.com/cont/20181023/cont-1461493-11648067.png" alt="離婚后需要幫前妻還債嗎?"> # <div class="vdo-time">02:35</div></div> # <div class="vdo-summary"> # <p class="vdo-tt">離婚后需要幫前妻還債嗎?</p> # <div class="none vdo-open-tips"></div> # </div> # </a> # re.findall('正則表達式','jiexiewenben','zhengzemoshi') # print(response.status_code) # print(response.text) # res=re.findall('<a href="video_(.*?)"',response.text,re.S) # # 。當(dāng)前位置 *所有 ?找到就停下來 # print(res) # for m_id in res: # detail_url='https://www.pearvideo.com/video_'+m_id # print(detail_url) # 獲取視頻詳情頁 import uuid

?

# 1 發(fā)送請求 def get_page(url): response=requests.get(url) return response # 2 解析數(shù)據(jù)

?

def parse_index(text): res=re.findall('<a href="video_(.*?)"',text,re.S) detail_url_list=[] for m_id in res: detail_url='https://www.pearvideo.com/video_'+m_id detail_url_list.append(detail_url) return detail_url_list def parse_detail(text): movie_url=re.findall('srcUrl="(.*?)"',text,re.S)[0] return movie_url # 3 保存數(shù)據(jù) def save_movie(movie_url): response=requests.get(movie_url) with open(f'{uuid.uuid4()}.mp4','wb') as f: f.write(response.content) f.flush() from concurrent.futures import ThreadPoolExecutor from multiprocessing import pool if __name__ == "__main__": # ThreadPoolExecutor

?

# index_res=get_page(url='https://www.pearvideo.com/') # detail_url_list=parse_index(index_res.text) # for detail_url in detail_url_list: # detail_res =get_page(url=detail_url) # movie_url=parse_detail(detail_res.text) # print(movie_url) # save_movie(movie_url) # 導(dǎo)入線程池模塊 url='https://www.pearvideo.com/' pool.submit(get_page,url)

作業(yè):

'''''' ''' 主頁:https://movie.douban.com/top250GETUser-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36re正則:# 電影詳情頁url、圖片鏈接、電影名稱、電影評分、評價人數(shù)<div class="item">.*?href="(.*?)">.*?src="(.*?)".*?<span class="title">(.*?)</span>.*?<span class="rating_num".*?>(.*?)</span>.*?<span>(.*?)人評價 ''' import requests import reurl = 'https://movie.douban.com/top250' headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36' } # 1、往豆瓣TOP250發(fā)送請求獲取響應(yīng)數(shù)據(jù) response = requests.get(url, headers=headers)# print(response.text)# 2、通過正則解析提取數(shù)據(jù) # 電影詳情頁url、圖片鏈接、電影名稱、電影評分、評價人數(shù) movie_content_list = re.findall(# 正則規(guī)則'<div class="item">.*?href="(.*?)">.*?src="(.*?)".*?<span class="title">(.*?)</span>.*?<span class="rating_num".*?>(.*?)</span>.*?<span>(.*?)人評價.*?<p class>==<p class>(.*?)</p>.*?<spam class="inq">(.*?)</span>',# 解析文本response.text,# 匹配模式re.S) for movie_content in movie_content_list:# 解壓賦值每一部電影detail_url, movie_jpg, name, point,yu,jili,num = movie_contentdata = f'電影名稱:{name}, 詳情頁url:{detail_url}, 圖片url:{movie_jpg}, 評分: {point}, 評價人數(shù): {num},介紹語:{yu}激勵語;{jili} \n'#print(data)# 3、保存數(shù)據(jù),把電影信息寫入文件中with open('li.txt', 'a', encoding='utf-8') as f:f.write(data)

轉(zhuǎn)載于:https://www.cnblogs.com/jjjpython1/p/11061838.html

總結(jié)

以上是生活随笔為你收集整理的python作业6月14日的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。