虽然现代的网络应用比以往任何时候都更快速、更便捷,但仍有许多情况下,需要把繁重的任务转移到系统的其他部分执行,而不是在主线程上进行工作。
这些情况中的示例如下:
周期性任务 —— 计划在特定时间间隔内运行的工作。例如,每日、每月的报告生成。第三方工具 —— 应用程序应该快速向用户返回响应,而不是等待其他任务先完成。例如,发送电子邮件、通知,将更新进度传递给内部工具。长时间运行的工作 —— 执行复杂或资源昂贵的工作,并且用户需要等待工作完成。例如。dag工作流、基于map-reduce的任务、长时间运行的spark作业等。那么,如何处理这些情况呢?这时,celery就派上用场了。
什么是celery?celery是一个开源的任务队列实现,通常与基于python的网络框架(如flask和django)相结合,在典型的请求-响应周期之外异步执行任务。
因此,celery本质上是一个基于分布式消息传递的任务队列。执行单元或任务在一个或多个worker上使用多处理、gevent或eventlet同时执行。这些任务可以同步执行(即等到准备就绪)或异步执行(即在后台)。
celery是如何工作的?celery是一个分布式任务队列,基于生产者-消费者模式。
任务队列是用于跨线程和机器分配工作的机制,本质上是生产者(web应用程序)和消费者(celery工作者)之间的消息中介。
celery通过消息进行交互,代理(broker)在客户(生产者)和工作者(消费者)之间充当中间人。为了启动任务,客户端将消息推送到队列中,然后代理将该消息传递给工作者。
celery系统可以由多个worker和broker组成,这为高可用性和横向扩展提供了可能。
简而言之,celery客户端是生产者,它通过消息代理向队列中添加新的任务。然后,celery工作者同样通过消息代理从队列中获取新的任务。一旦处理完毕,结果就会存储在结果后端。
工作实例下面的例子将使用redismq作为消息代理。
设置redis在linux/macos系统上,通过以下命令在本地运行redis服务器:
$ wget http://download.redis.io/redis-stable.tar.gz
$ tar xvzf redis-stable.tar.gz
$ rm redis-stable.tar.gz
$ cd redis-stable
$ make
设置好redis后,通过执行以下命令运行redis服务器:
$ redis-server
该服务器在默认的6379端口运行。
设置应用程序首先,在本地设置python项目。
celery可以通过标准工具如pip或easy_install来安装。通过以下命令安装celery和redis:
pip install celery redis==4.3.4
现在需要一个celery实例来运行应用程序,celery实现任何任务都是以实例开始,比如创建和管理任务等。
在项目中创建一个文件tasks.py:
from celery import celery
broker_url = 'redi://localhost:6379/0'
app = celery('tasks',broker = broker_url)
@app.task
def add(x, y):
return x+y
这里定义了一个简单的任务add(),返回两个数字的总和。
运行celery worker在终端上,切换到项目位置并用以下命令运行celery worker:
$ celery -a tasks worker - loglevel=info
关于celery worker命令行的详细信息,可以使用help:
$ celery worker - help
调用任务在celery中,使用delay()方法来调用任务。
打开项目的另一个终端窗口并运行以下命令:
$ python
这将打开python命令行。
>> from tasks import add
>> add.delay(1,2)
这将返回一个asyncresult实例,可以用来检查任务状态,获得其返回值,等待任务完成,也可以在失败时获得异常和回溯。
运行add.delay()命令后,任务会被推送到队列中,然后被worker获取。这可以在celery worker终端上进行验证,可以清楚地看到任务被接收,之后任务成功完成。
以上就是学习python celery,轻松完成异步任务的详细内容。