日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python线程池模块_Python并发编程之线程池/进程池--concurrent.futures模块

發布時間:2025/6/17 python 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python线程池模块_Python并发编程之线程池/进程池--concurrent.futures模块 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一、關于concurrent.futures模塊

Python標準庫為我們提供了threading和multiprocessing模塊編寫相應的多線程/多進程代碼,但是當項目達到一定的規模,頻繁創建/銷毀進程或者線程是非常消耗資源的,這個時候我們就要編寫自己的線程池/進程池,以空間換時間。但從Python3.2開始,標準庫為我們提供了concurrent.futures模塊,它提供了ThreadPoolExecutor和ProcessPoolExecutor兩個類,實現了對threading和multiprocessing的進一步抽象,對編寫線程池/進程池提供了直接的支持。

1.Executor和Future:

concurrent.futures模塊的基礎是Exectuor,Executor是一個抽象類,它不能被直接使用。但是它提供的兩個子類ThreadPoolExecutor和ProcessPoolExecutor卻是非常有用,顧名思義兩者分別被用來創建線程池和進程池的代碼。我們可以將相應的tasks直接放入線程池/進程池,不需要維護Queue來操心死鎖的問題,線程池/進程池會自動幫我們調度。

Future這個概念相信有java和nodejs下編程經驗的朋友肯定不陌生了,你可以把它理解為一個在未來完成的操作,這是異步編程的基礎,傳統編程模式下比如我們操作queue.get的時候,在等待返回結果之前會產生阻塞,cpu不能讓出來做其他事情,而Future的引入幫助我們在等待的這段時間可以完成其他的操作。

p.s: 如果你依然在堅守Python2.x,請先安裝futures模塊。

pip install futures

二、操作線程池/進程池

1.使用submit來操作線程池/進程池:

#線程池:

from concurrent.futures importThreadPoolExecutorimporturllib.request

URLS= ['http://www.163.com', 'https://www.baidu.com/', 'https://github.com/']defload_url(url):

with urllib.request.urlopen(url, timeout=60) as conn:print('%r page is %d bytes' %(url, len(conn.read())))

executor= ThreadPoolExecutor(max_workers=3)for url inURLS:

future=executor.submit(load_url,url)print(future.done())print('主線程')#運行結果:

False

False

False

主線程'https://www.baidu.com/' page is 227bytes'http://www.163.com' page is 662047bytes'https://github.com/' page is 54629 bytes

我們根據運行結果來分析一下。我們使用submit方法來往線程池中加入一個task,submit返回一個Future對象,對于Future對象可以簡單地理解為一個在未來完成的操作。由于線程池異步提交了任務,主線程并不會等待線程池里創建的線程執行完畢,所以執行了print('主線程'),相應的線程池中創建的線程并沒有執行完畢,故future.done()返回結果為False。

#進程池:同上

from concurrent.futures importProcessPoolExecutorimporturllib.request

URLS= ['http://www.163.com', 'https://www.baidu.com/', 'https://github.com/']defload_url(url):

with urllib.request.urlopen(url, timeout=60) as conn:print('%r page is %d bytes' %(url, len(conn.read())))

executor= ProcessPoolExecutor(max_workers=3)if __name__ == '__main__': # 要加mainfor url inURLS:

future=executor.submit(load_url,url)print(future.done())print('主線程')#運行結果:

False #子進程只完成創建,并沒有執行完成

False

False

主線程 # 子進程創建完成就會向下執行主線程,并不會等待子進程執行完畢'http://www.163.com' page is 662049bytes'https://www.baidu.com/' page is 227bytes'https://github.com/' page is 54629 bytes

2.使用map來操作線程池/進程池:

除了submit,Exectuor還為我們提供了map方法,和內建的map用法類似:

from concurrent.futures importThreadPoolExecutorimporturllib.request

URLS= ['http://www.163.com', 'https://www.baidu.com/', 'https://github.com/']defload_url(url):

with urllib.request.urlopen(url, timeout=60) as conn:print('%r page is %d bytes' %(url, len(conn.read())))

executor= ThreadPoolExecutor(max_workers=3)

executor.map(load_url,URLS)print('主線程')#運行結果:

主線程'http://www.163.com' page is 662047bytes'https://www.baidu.com/' page is 227bytes'https://github.com/' page is 54629 bytes

從運行結果可以看出,map是按照URLS列表元素的順序返回的,并且寫出的代碼更加簡潔直觀,我們可以根據具體的需求任選一種。

3.wait:

wait方法接會返回一個tuple(元組),tuple中包含兩個set(集合),一個是completed(已完成的)另外一個是uncompleted(未完成的)。使用wait方法的一個優勢就是獲得更大的自由度,它接收三個參數FIRST_COMPLETED, FIRST_EXCEPTION 和ALL_COMPLETE,默認設置為ALL_COMPLETED。

如果采用默認的ALL_COMPLETED,程序會阻塞直到線程池里面的所有任務都完成,再執行主線程:

from concurrent.futures importThreadPoolExecutor,wait,as_completedimporturllib.request

URLS= ['http://www.163.com', 'https://www.baidu.com/', 'https://github.com/']defload_url(url):

with urllib.request.urlopen(url, timeout=60) as conn:print('%r page is %d bytes' %(url, len(conn.read())))

executor= ThreadPoolExecutor(max_workers=3)

f_list=[]for url inURLS:

future=executor.submit(load_url,url)

f_list.append(future)print(wait(f_list))print('主線程')#運行結果:

'http://www.163.com' page is 662047bytes'https://www.baidu.com/' page is 227bytes'https://github.com/' page is 54629bytes

DoneAndNotDoneFutures(done={, , }, not_done=set())

主線程

如果采用FIRST_COMPLETED參數,程序并不會等到線程池里面所有的任務都完成。

from concurrent.futures importThreadPoolExecutor,wait,as_completedimporturllib.request

URLS= ['http://www.163.com', 'https://www.baidu.com/', 'https://github.com/']defload_url(url):

with urllib.request.urlopen(url, timeout=60) as conn:print('%r page is %d bytes' %(url, len(conn.read())))

executor= ThreadPoolExecutor(max_workers=3)

f_list=[]for url inURLS:

future=executor.submit(load_url,url)

f_list.append(future)print(wait(f_list,return_when='FIRST_COMPLETED'))print('主線程')#運行結果:

'http://www.163.com' page is 662047bytes

DoneAndNotDoneFutures(done={}, not_done={, })

主線程'https://www.baidu.com/' page is 227bytes'https://github.com/' page is 54629 bytes

應用線程池:

from concurrent.futures importThreadPoolExecutor,ProcessPoolExecutorimportrequestsimporttime,osdefget_page(url):print('<%s> is getting [%s]'%(os.getpid(),url))

response=requests.get(url)if response.status_code==200: #200代表狀態:下載成功了

return {'url':url,'text':response.text}defparse_page(res):

res=res.result()print('<%s> is getting [%s]'%(os.getpid(),res['url']))

with open('db.txt','a') as f:

parse_res= 'url:%s size:%s\n'%(res['url'],len(res['text']))

f.write(parse_res)if __name__ == '__main__':#p = ThreadPoolExecutor()

p =ProcessPoolExecutor()

l=['http://www.baidu.com','http://www.baidu.com','http://www.baidu.com','http://www.baidu.com',

]for url inl:

res= p.submit(get_page,url).add_done_callback(parse_page) #這里的回調函數拿到的是一個對象。得

#先把返回的res得到一個結果。即在前面加上一個res.result() #誰好了誰去掉回調函數

#回調函數也是一種編程思想。不僅開線程池用,開線程池也用

p.shutdown() #相當于進程池里的close和join

print('主',os.getpid())

?寫一個小程序對比multiprocessing.pool(ThreadPool)和ProcessPollExecutor(ThreadPoolExecutor)在執行效率上的差距,結合上面提到的Future思考為什么會造成這樣的結果?

總結

以上是生活随笔為你收集整理的python线程池模块_Python并发编程之线程池/进程池--concurrent.futures模块的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。