日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > linux >内容正文

linux

python linux教程_在RedHat系统Linux上部署Python的Celery框架的教程

發布時間:2024/9/30 linux 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python linux教程_在RedHat系统Linux上部署Python的Celery框架的教程 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Celery (芹菜)是基于Python開發的分布式任務隊列。它支持使用任務隊列的方式在分布的機器/進程/線程上執行任務調度。

架構設計

Celery的架構由三部分組成,消息中間件(message broker),任務執行單元(worker)和任務執行結果存儲(task result store)組成。

1.?消息中間件

Celery本身不提供消息服務,但是可以方便的和第三方提供的消息中間件集成。包括,RabbitMQ, Redis, MongoDB (experimental), Amazon SQS (experimental),CouchDB (experimental), SQLAlchemy (experimental),Django ORM (experimental), IronMQ

2.任務執行單元

Worker是Celery提供的任務執行的單元,worker并發的運行在分布式的系統節點中。

3.任務結果存儲

Task result store用來存儲Worker執行的任務的結果,Celery支持以不同方式存儲任務的結果,包括AMQP, Redis,memcached, MongoDB,SQLAlchemy, Django ORM,Apache Cassandra, IronCache

另外, Celery還支持不同的并發和序列化的手段

1.并發

Prefork, Eventlet, gevent, threads/single threaded

2.序列化

pickle, json, yaml, msgpack. zlib, bzip2 compression, Cryptographic message signing 等等

安裝和運行

Celery的安裝過程略為復雜,下面的安裝過程是基于我的AWS EC2的Linux版本的安裝過程,不同的系統安裝過程可能會有差異。大家可以參考官方文檔。

首先我選擇RabbitMQ作為消息中間件,所以要先安裝RabbitMQ。作為安裝準備,先更新YUM。

sudo yum -y update

RabbitMQ是基于erlang的,所以先安裝erlang

# Add and enable relevant application repositories:

# Note: We are also enabling third party remi package repositories.

wget http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm

wget http://rpms.famillecollet.com/enterprise/remi-release-6.rpm

sudo rpm -Uvh remi-release-6*.rpm epel-release-6*.rpm

# Finally, download and install Erlang:

yum install -y erlang

然后安裝RabbitMQ

# Download the latest RabbitMQ package using wget:

wget

# Add the necessary keys for verification:

rpm --import

# Install the .RPM package using YUM:

yum install rabbitmq-server-3.2.2-1.noarch.rpm

啟動RabbitMQ服務

rabbitmq-server start

RabbitMQ服務已經準備好了,然后安裝Celery, 假定你使用pip來管理你的python安裝包

pip install Celery

為了測試Celery是否工作,我們運行一個最簡單的任務,編寫tasks.py

from celery import Celery

app = Celery('tasks', backend='amqp', broker='amqp://guest@localhost//')

app.conf.CELERY_RESULT_BACKEND = 'db+sqlite:///results.sqlite'

@app.task

def add(x, y):

return x + y

在當前目錄運行一個worker,用來執行這個加法的task

celery -A tasks worker --loglevel=info

其中-A參數表示的是Celery App的名字。注意這里我使用的是SQLAlchemy作為結果存儲。對應的python包要事先安裝好。

worker日志中我們會看到這樣的信息

- ** ---------- [config]

- ** ---------- .> app: tasks:0x1e68d50

- ** ---------- .> transport: amqp://guest:**@localhost:5672//

- ** ---------- .> results: db+sqlite:///results.sqlite

- *** --- * --- .> concurrency: 8 (prefork)

其中,我們可以看到worker缺省使用prefork來執行并發,并設置并發數為8

下面的任務執行的客戶端代碼:

from tasks import add

import time

result = add.delay(4,4)

while not result.ready():

print "not ready yet"

time.sleep(5)

print result.get()

用python執行這段客戶端代碼,在客戶端,結果如下

not ready

8

Work日志顯示

[2015-03-12 02:54:07,973: INFO/MainProcess] Received task: tasks.add[34c4210f-1bc5-420f-a421-1500361b914f]

[2015-03-12 02:54:08,006: INFO/MainProcess] Task tasks.add[34c4210f-1bc5-420f-a421-1500361b914f] succeeded in 0.0309705100954s: 8

這里我們可以發現,每一個task有一個唯一的ID,task異步執行在worker上。

這里要注意的是,如果你運行官方文檔中的例子,你是無法在客戶端得到結果的,這也是我為什么要使用SQLAlchemy來存儲任務執行結果的原因。官方的例子使用AMPQ,有可能Worker在打印日志的時候取出了task的運行結果顯示在worker日志中,然而AMPQ作為一個消息隊列,當消息被取走后,隊列中就沒有了,于是客戶端總是無法得到任務的執行結果。不知道為什么官方文檔對這樣的錯誤視而不見。

如果大家想要對Celery做更進一步的了解,請參考官方文檔

總結

以上是生活随笔為你收集整理的python linux教程_在RedHat系统Linux上部署Python的Celery框架的教程的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。