日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

3行代码给你的python提速4倍!

發布時間:2025/4/5 python 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 3行代码给你的python提速4倍! 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Python絕對是處理數據或者把重復任務自動化的絕佳編程語言。要抓取網頁日志?或者要調整一百萬張圖片?總有對應的Python庫讓你輕松完成任務。


然而,Python的運營速度一直飽受詬病。默認狀態下,Python程序使用單個CPU的單個進程。如果你的電腦是最近十年生產的,多數情況下會有4個及以上CPU核。也就是說,當你在等程序運行結束的時候,你的計算機有75%或者更多的計算資源都是空置的!


讓我們來看看如何通過并行運算充分利用計算資源。多虧有Python的concurrent.futures模塊,僅需3行代碼就可以讓一個普通程序并行運行。

?

一般情況下的Python運行


比如說我們有一個文件夾,里面全是圖片文件,我們想給每一張圖片創建縮略圖。


下面的短程序中我們使用Python自帶的glob 函數獲取一個包含文件夾中所有圖片文件的列表,并用Pillow圖片處理庫獲取每張圖片的128像素縮略圖。



這個程序遵循很常見的數據處理模式:


  • 從您想處理的一系列文件(或其他數據)開始。

  • 編寫一個處理一個數據的輔助函數。

  • 用for循環調動輔助函數,一個一個的去處理數據。


讓我們用1000張圖片來測試這個程序,看看運行時間是多少:



程序運行時間8.9秒,但是計算機的運算資源占用了多少呢?


讓我們再跑一次程序,同時查看活動監視器:



計算機有75%空置,這是為什么呢?


問題在于我的計算機有4個CPU核,但是Python只用了其中一個核。即便我的程序把那個CPU核完全占滿,但是其他3個CPU核什么也沒干。我們需要想辦法把整個程序的工作量分成4份然后平行運行。所幸Python可以做到這一點!

?

讓我們來試試并行運算

?

下面是實現并行運算的一個方法:


  • 把Jpeg圖片文件列表分成4個部分。

  • 同時跑四個Python解釋器。

  • 讓四個解釋器分別處理一部分圖片文件。

  • 匯總四個解釋器的結果得到最終結果。


四個Python程序分別在4個CPU上運行,跟之前在1個CPU運行相比大概可以達到4倍的速度,對不對?


好消息是Python可以幫我們解決并行運算麻煩的部分。我們僅需要告訴 Python我們想要運行什么函數以及我們希望工作分成多少份,其他部分留給Python。我們只需要修改三行代碼:


首先,我們需要導入concurrent.futures庫。這個庫是Python自帶的:



然后,我們需要告訴 Python另外啟動4個Python實例。我們通過創建Process Pool來傳達指令:



默認設置下,上面的代碼會給計算機的每一個CPU創建一個Python進程,所以如果您的計算機有4個CPU,就會開啟4個Python進程。


最后一步是讓Process Pool 用這4個進程在數據列表中執行我們的輔助函數。我們可以把我們之前的for循環替代為:



新代碼是調用executor.map()函數?



executor.map() 函數調用時需要輸入輔助函數和待處理的數據列表。這個函數幫我們完成所有麻煩的工作,把列表分成幾個小列表,把小列表分配給每個子進程,運行子進程,以及匯總結果。干得漂亮!


我們也可以得到每次調用輔助函數的結果。executor.map()函數以輸入數據順序返回結果。 Python的zip()函數可以一步獲取原始文件名以及相應結果。


下面是經過三步改動之后的程序:



讓我們試著運行一下,看看有沒有縮短運行時間:



?2.274秒程序就運行完了!這便是原來版本的4倍加速。運行時間縮短的原因正是我們這次用4個CPU代替了1個CPU。


但是如果您仔細看看,您會看到“用戶(User)”時間大概是接近9秒,如果程序2秒就運行結束了,為什么客戶時間會是9秒?這似乎…有哪里不對?


其實這是因為”用戶”時間是所有CPU時間的總和。我們和上次一樣,用9秒的總CPU。


注意:啟用Python進程以及給子進程分配數據都會占用時間,因此您不一定能靠這個方法大幅提高速度。如果您處理的數據量很大,這里有一篇“設置chunksize參數的技巧”文章可能可以幫助您:https://docs.python.org/3/library/concurrent.futures.html#concurrent.futures.Executor.map。

?

這種方法總能幫我的程序提速嗎?


當你有一列數據,并且每個數據都可以獨立處理的時候,使用Process Pools是一個好方法。這有一些適合使用并行處理的例子:


  • 從一系列單獨的網頁服務器日志里抓取數據。

  • 從一堆XML,CSV和JSON文件中解析數據。

  • 對大量圖片數據做預處理,建立機器學習數據集。


但Process Pools不是萬能的。使用Process Pool需要在獨立的Python處理過程中將數據來回傳遞。如果你正在使用的數據不能在處理過程中有效的被傳遞,這種方法就行不通。你處理的數據必須是Python知道怎么搞定的類型(https://docs.python.org/3 /library/pickle.html#what-can-be-pickled-and-unpickled)


同時,數據不會按照一個預想的順序被處理。如果你需要前一步的處理結果來進行下一步驟,這種方法也行不通。


那GIL怎么辦?


你可能聽說過Python有一個全局解釋器鎖(Global Interpreter Lock,),縮寫為GIL。這意味著即使你的程序是多層的,每一層也只有一個Python命令能被執行。GIL確保任何時候都只有一個Python線程執行。?GIL最大的問題就是Python的多線程程序并不能利用多核CPU的優勢。


但Process Pools能解決這個問題!因為我們在運行單獨的Python實例,每個實例都有自己的GIL。這樣你就有了真正的并行處理的Python代碼!


不要害怕并行處理!


有了concurrent.futures庫,Python可以讓你簡簡單單地修改腳本,卻能立刻調用你電腦上所有CPU內核開足馬力地運行。不要害怕嘗試。一旦你會用了,它就像寫一個for循環那樣簡單,但會讓整個程序快很多。


原文發布時間為:2017-08-25

本文作者:Adam Geitgey

本文來自云棲社區合作伙伴“數據派THU”,了解相關信息可以關注“數據派THU”微信公眾號

總結

以上是生活随笔為你收集整理的3行代码给你的python提速4倍!的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。