【亚洲必赢官网】Django使用Celery异步任务队列的行使,分布式义务队列Celery入门与进阶

一、简介

  Celery是由Python开发、不难、灵活、可相信的分布式义务队列,其本质是生产者消费者模型,生产者发送义务到消息队列,消费者承受处理职责。Celery侧重于实时操作,但对调度援救也很好,其天天能够拍卖数以百万计的天职。特点:

  • 简易:熟谙celery的干活流程后,配置利用简单
  • 高可用:当职责执行破产或执行进度中爆发一而再中断,celery会自动尝试再度履行职务
  • 高速:贰个单进度的celery每秒钟可处理上百万个职责
  • 灵活:大约celery的次第零部件都足以被扩大及自定制

选用场景举例:

  壹.web利用:当用户在网址实行有些操作需求相当长日子完毕时,大家得以将那种操作交给Celery执行,直接重回给用户,等到Celery执行到位以往通告用户,大大提好网站的出现以及用户的体验感。

  二.任务场景:比如在运营场景下必要批量在几百台机器执行某个命令大概任务,此时Celery能够轻松消除。

  三.定时任务:向定时导数据报表、定时发送通告类似场馆,尽管Linux的陈设职务能够帮笔者完结,不过丰富不便利管理,而Celery能够提供管理接口和添加的API。

1 Celery简介

Celery是异步职分队列,能够独自于主进度运维,在主进度退出后,也不影响队列中的任务执行。

任务履行十分退出,重新开动后,会继续执行队列中的其余任务,同时可以缓存甘休期直接收的干活义务,这些效用依赖于音讯队列(MQ、Redis)。

Django使用Celery异步任务队列,djangocelery

1  Celery简介

Celery是异步义务队列,可以独自于主进度运转,在主进度退出后,也不影响队列中的职分执行。

职责执行极度退出,重新启航后,会继续执行队列中的别的任务,同时能够缓存甘休期间收到的做事职责,那些职能依赖于音讯队列(MQ、Redis)。

 

贰、架构&工作原理

  Celery由以下三有的构成:消息中间件(Broker)、职分执行单元Worker、结果存储(Backend),如下图:

  亚洲必赢官网 1

做事规律:

  1. 职分模块Task包括异步任务和定时职分。当中,异步职责日常在业务逻辑中被触发并发往新闻队列,而定时职务由Celery
    Beat进度周期性地将职责发往信息队列;
  2. 职务履行单元Worker实时监视新闻队列获取队列中的职分执行;
  3. Woker执行完职分后将结果保存在Backend中;

1.1 Celery原理

亚洲必赢官网 2

Celery的 架构 由三局地组成,新闻中间件(message
broker),任务履行单元(worker)和职分履行结果存款和储蓄(task result
store)组成。

音信中间件:Celery自个儿不提供消息服务,可是足以壹本万利的和第二方提供的新闻中间件集成。包罗,
RabbitMQRedis ,  MongoDB  (experimental), 亚马逊 SQS
(experimental),CouchDB (experimental), SQLAlchemy (experimental),Django
OPRADOM (experimental), IronMQ。推荐使用:RabbitMQ、Redis作为音信队列。

任务履行单元:Worker是Celery提供的任务执行的单元,worker并发的周转在分布式的系统节点中。

任务结果存款和储蓄:Task result
store用来存款和储蓄Worker执行的职务的结果,Celery援助以分化措施存款和储蓄职务的结果,包罗AMQP,
Redis,memcached, MongoDB,SQLAlchemy, Django O奇骏M,Apache Cassandra,
IronCache

1  Celery简介

Celery是异步职责队列,能够独自于主进程运维,在主进程退出后,也不影响队列中的任务履行。

任务履行十分退出,重新开动后,会继续执行队列中的其余任务,同时能够缓存甘休时期收到的干活职责,那个职能注重于消息队列(MQ、Redis)。

 

1.1  Celery原理

 亚洲必赢官网 3

 

Celery的架构由叁局地构成,音信中间件(message
broker),职务履行单元(worker)和职务执行结果存款和储蓄(task result
store)组成。

  • 新闻中间件:Celery本人不提供新闻服务,不过足以方便的和第贰方提供的音信中间件集成。包罗,RabbitMQRedis, MongoDB (experimental),
    亚马逊(Amazon) SQS (experimental),CouchDB (experimental), SQLAlchemy
    (experimental),Django OENVISIONM (experimental),
    IronMQ。推荐使用:RabbitMQ、Redis作为音信队列。
  • 职务履行单元:Worker是Celery提供的天职执行的单元,worker并发的周转在分布式的系统节点中。
  • 职责结果存款和储蓄:Task result
    store用来储存Worker执行的职务的结果,Celery帮助以分歧措施存款和储蓄职分的结果,包罗AMQP,
    Redis,memcached, MongoDB,SQLAlchemy, Django O福睿斯M,Apache Cassandra,
    IronCache

新闻中间件Broker

  消息中间件Broker官方提供了诸多备选方案,帮助RabbitMQ、Redis、AmazonSQS、MongoDB、Memcached 等,官方推荐RabbitMQ。

一.2Celery适用场景

异步职务处理:例如给登记用户发送短消息恐怕确认邮件任务。
大型任务:执行时间较长的职务,例如录像和图片处理,添加水印和转码等,需求实施任务时间长。
定时实行的职务:支持职责的定时执行和设定时间实施。例如质量压测定时举行。

1.1  Celery原理

 亚洲必赢官网 4

 

Celery的架构由3片段构成,音信中间件(message
broker),职责履行单元(worker)和职务执行结果存储(task result
store)组成。

  • 音讯中间件:Celery自己不提供消息服务,然则足以便宜的和第二方提供的消息中间件集成。包罗,RabbitMQRedis, MongoDB (experimental),
    亚马逊(Amazon) SQS (experimental),CouchDB (experimental), SQLAlchemy
    (experimental),Django OHighlanderM (experimental),
    IronMQ。推荐应用:RabbitMQ、Redis作为音讯队列。
  • 职务履行单元:Worker是Celery提供的职务执行的单元,worker并发的运作在分布式的系统节点中。
  • 任务结果存款和储蓄:Task result
    store用来存款和储蓄Worker执行的职责的结果,Celery帮衬以不一样方法存款和储蓄职务的结果,包涵AMQP,
    Redis,memcached, MongoDB,SQLAlchemy, Django O奥迪Q叁M,Apache Cassandra,
    IronCache

一.2     Celery适用场景

  • 异步义务处理:例如给登记用户发送短新闻大概确认邮件职责。
  • 重型任务:执行时间较长的任务,例如录制和图表处理,添加水印和转码等,要求实践职务时间长。
  • 定时执行的天职:支持职务的定时执行和设定时间实施。例如性能压测定时实施。

 

职务执行单元Worker

  Worker是任务执行单元,负责从消息队列中取出职责履行,它能够运转2个依然多个,也得以运维在不一致的机器节点,那正是其促成分布式的主干。

 2Celery开发条件准备

一.贰     Celery适用场景

  • 异步职务处理:例如给登记用户发送短音讯只怕确认邮件任务。
  • 巨型职务:执行时间较长的任务,例如录制和图表处理,添加水印和转码等,要求履行职务时间长。
  • 定时执行的任务:援救职分的定时执行和设定时间实施。例如质量压测定时实行。

 

2      Celery开发条件准备

结果存款和储蓄Backend

  Backend结果存款和储蓄官方也提供了诸多的贮存方式帮衬:RabbitMQ、 Redis、Memcached,SQLAlchemy,
Django O福特ExplorerM、Apache Cassandra、Elasticsearch。

 二.一 环境准备

软件名称

版本号

说明

Linux

Centos 6.5(64bit)

操作系统

Python

3.5.2

Django

1.10

Web框架

Celery

4.0.2

异步任务队列

Redis

2.4

消息队列

贰      Celery开发条件准备

二.壹     环境准备

软件名称

版本号

说明

Linux

Centos 6.5(64bit)

操作系统

Python

3.5.2

 

Django

1.10

Web框架

Celery

4.0.2

异步任务队列

Redis

2.4

消息队列

 

叁、安装使用 

  那里小编使用的redis作为音讯中间件,redis安装能够参照

Celery安装: 

pip3 install celery

2.2     Celery安装

行使方法介绍:

Celery的运维信赖音讯队列,使用时须求设置redis恐怕rabbit。

此间大家选拔Redis。安装redis库:

sudo yum install redis

启动redis:

sudo service redis start

安装celery库

sudo pip install celery==4.0.2

二.一     环境准备

软件名称

版本号

说明

Linux

Centos 6.5(64bit)

操作系统

Python

3.5.2

 

Django

1.10

Web框架

Celery

4.0.2

异步任务队列

Redis

2.4

消息队列

 

2.2     Celery安装

动用方法介绍:

Celery的运维注重新闻队列,使用时需求安装redis恐怕rabbit。

此地大家利用Redis。安装redis库:

sudo yum install redis

  

启动redis:

sudo service redis start

 

安装celery库

sudo pip install celery==4.0.2

 

总结利用

  目录结构:

project/
├── __init__.py  
├── config.py
└── tasks.py

各目录文件表明:

__init__.py:伊始化Celery以及加载配置文件

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from celery import Celery
app = Celery('project')                                # 创建 Celery 实例
app.config_from_object('project.config')               # 加载配置模块

config.py: 
Celery相关配置文件,越来越多配备参考:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd

BROKER_URL = 'redis://10.1.210.69:6379/0' # Broker配置,使用Redis作为消息中间件

CELERY_RESULT_BACKEND = 'redis://10.1.210.69:6379/0' # BACKEND配置,这里使用redis

CELERY_RESULT_SERIALIZER = 'json' # 结果序列化方案

CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24 # 任务过期时间

CELERY_TIMEZONE='Asia/Shanghai'   # 时区配置

CELERY_IMPORTS = (     # 指定导入的任务模块,可以指定多个
    'project.tasks',
)

tasks.py :职务定义文件

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd

from project import app
@app.task
def show_name(name):
    return name

启动Worker:

celery worker -A project -l debug

逐条参数含义:

  worker: 代表第运营的剧中人物是work当然还有beat等其余剧中人物;

  -A :项目路线,那里本人的目录是project

  -l:运营的日记级别,更加多参数使用celery –help查看

翻开日志输出,会发现大家定义的任务,以及有关安顿:

亚洲必赢官网 5

 

  即使起步了worker,不过大家还亟需通过delay或apply_async来将职分添加到worker中,那里大家透过交互式方法添加职责,并赶回AsyncResult对象,通过AsyncResult对象获得结果:

亚洲必赢官网 6

AsyncResult除了get方法用于常用获取结果方法外还提以下常用艺术或性质:

  • state: 重临职务景况;
  • task_id: 再次回到职务id;
  • result: 再次回到职务结果,同get()方法;
  • ready(): 判断职分是还是不是以及有结果,有结果为True,不然False;
  • info(): 获取职责音信,暗中认可为结果;
  • wait(t):
    等待t秒后拿走结果,若任务执行实现,则不等待直接获取结果,若职责在推行中,则wait时期一向不通,直到超时报错;
  • successfu(): 判断职责是还是不是中标,成功为True,不然为False;

3Celery单独推行义务

2.2     Celery安装

选拔方法介绍:

Celery的运作重视消息队列,使用时必要安装redis或然rabbit。

那里我们采取Redis。安装redis库:

sudo yum install redis

  

启动redis:

sudo service redis start

 

安装celery库

sudo pip install celery==4.0.2

 

三      Celery单独执行职分

四、进阶使用

  对于常见的职分以来只怕满意不断大家的职务供给,所以还索要了然壹些进阶用法,Celery提供了累累调度措施,例如职主要编辑排、依照职分状态执行不一的操作、重试机制等,以下会对常用高阶用法实行描述。

 叁.壹编写职责

创建task.py文件

注解:那里起始Celery实例时就加载了安排,使用的redis作为新闻队列和存款和储蓄任务结果。

亚洲必赢官网 7

运行celery:

$ celery -A task worker --loglevel=info

阅览下边包车型大巴打印,表明celery成功运转。

亚洲必赢官网 8

3      Celery单独执行职责

3.壹     编写职责

创建task.py文件

【亚洲必赢官网】Django使用Celery异步任务队列的行使,分布式义务队列Celery入门与进阶。表明:那里开头Celery实例时就加载了计划,使用的redis作为音讯队列和仓库储存职分结果。

 亚洲必赢官网 9

 

运行celery:

$ celery -A task worker --loglevel=info

旁观上边包车型大巴打字与印刷,表达celery成功运营。

 亚洲必赢官网 10

定时职分&布置职责

  Celery的提供的定时任务至关心珍视要靠schedules来达成,通过beat组件周期性将职分发送给woker执行。在演示中,新建文件period_task.py,并加上义务到布署文件中:

period_task.py:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from project import app
from celery.schedules import crontab

@app.on_after_configure.connect
def setup_periodic_tasks(sender, **kwargs):
    sender.add_periodic_task(10.0, add.s(1,3), name='1+3=') # 每10秒执行add
    sender.add_periodic_task(
        crontab(hour=16, minute=56, day_of_week=1),      #每周一下午四点五十六执行sayhai
        sayhi.s('wd'),name='say_hi'
    )



@app.task
def add(x,y):
    print(x+y)
    return x+y


@app.task
def sayhi(name):
    return 'hello %s' % name

config.py

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd

BROKER_URL = 'redis://10.1.210.69:6379/0' # Broker配置,使用Redis作为消息中间件

CELERY_RESULT_BACKEND = 'redis://10.1.210.69:6379/0' # BACKEND配置,这里使用redis

CELERY_RESULT_SERIALIZER = 'json' # 结果序列化方案

CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24 # 任务过期时间

CELERY_TIMEZONE='Asia/Shanghai'   # 时区配置

CELERY_IMPORTS = (     # 指定导入的任务模块,可以指定多个
    'project.tasks',
    'project.period_task', #定时任务
)

启动worker和beat:

celery worker -A project -l debug #启动work
celery beat -A  project.period_task -l  debug #启动beat,注意此时对应的文件路径

小编们得以调查worker日志:

亚洲必赢官网 11

还足以经过陈设文件措施钦定定时和布置职务,此时的布置文件如下:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd

from project import app
from celery.schedules import crontab

BROKER_URL = 'redis://10.1.210.69:6379/0' # Broker配置,使用Redis作为消息中间件

CELERY_RESULT_BACKEND = 'redis://10.1.210.69:6379/0' # BACKEND配置,这里使用redis

CELERY_RESULT_SERIALIZER = 'json' # 结果序列化方案

CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24 # 任务过期时间

CELERY_TIMEZONE='Asia/Shanghai'   # 时区配置

CELERY_IMPORTS = (     # 指定导入的任务模块,可以指定多个
    'project.tasks',
    'project.period_task',
)

app.conf.beat_schedule = {
    'period_add_task': {    # 计划任务
        'task': 'project.period_task.add',  #任务路径
        'schedule': crontab(hour=18, minute=16, day_of_week=1),
        'args': (3, 4),
    },
'add-every-30-seconds': {          # 每10秒执行
        'task': 'project.period_task.sayhi',  #任务路径
        'schedule': 10.0,
        'args': ('wd',)
    },
}

此时的period_task.py只供给注册到woker中就行了,如下:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from project import app

@app.task
def add(x,y):
    print(x+y)
    return x+y


@app.task
def sayhi(name):
    return 'hello %s' % name

同1运维worker和beat结果和第三种办法1样。越来越多详细的内容请参见:

3.2 调用职分

一贯打开python交互命令行

施行下边代码:

亚洲必赢官网 12

可以celery的窗口看到职务的实行消息

亚洲必赢官网 13

任务执市场价格况监察和控制和获取结果:

亚洲必赢官网 14

3.壹     编写职分

创建task.py文件

申明:这里开始Celery实例时就加载了配备,使用的redis作为音讯队列和存储任务结果。

 亚洲必赢官网 15

 

运行celery:

$ celery -A task worker --loglevel=info

观看上面包车型地铁打字与印刷,表明celery成功运转。

 亚洲必赢官网 16

三.二     调用职分

 直接打开python交互命令行

 执行下边代码:

亚洲必赢官网 17

 

能够celery的窗口看到任务的实施音讯

 亚洲必赢官网 18

 

职务履市场价格况监察和控制和得到结果:

 亚洲必赢官网 19

 

 

职分绑定

  Celery可经过任务绑定到实例获取到职务的上下文,那样大家能够在职务运转时候取得到职务的情形,记录相关日志等。

修改任务中的period_task.py,如下:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from project import app
from celery.utils.log import get_task_logger

logger = get_task_logger(__name__)
@app.task(bind=True)  # 绑定任务
def add(self,x,y):
    logger.info(self.request.__dict__)  #打印日志
    try:
        a=[]
        a[10]==1
    except Exception as e:
        raise self.retry(exc=e, countdown=5, max_retries=3) # 出错每5秒尝试一次,总共尝试3次
    return x+y

在上述代码中,通过bind参数将职分绑定,self指职责的上下文,通过self获取任务情形,同时在职务出错开上下班时间实行职责重试,大家观看日志:

亚洲必赢官网 20

三.叁职责调用方法计算

有二种办法:

delay和apply_async ,delay方法是apply_async简化版。

add.delay(2, 2)
add.apply_async((2, 2))
add.apply_async((2, 2), queue='lopri')

delay方法是apply_async简化版本。

apply_async方法是足以带格外多的布局参数,包蕴钦赐队列等

Queue 钦命队列名称,能够把分歧职责分配到区别的连串 3.四     职责境况

种种任务有几种情景:PENDING -> STA猎豹CS陆TED -> SUCCESS

职分查询状态:res.state

来询问任务的场所

亚洲必赢官网 21

3.2     调用职务

 直接打开python交互命令行

 执行下边代码:

亚洲必赢官网 22

 

能够celery的窗口看看职分的执行消息

 亚洲必赢官网 23

 

职分执市价况监察和控制和收获结果:

 亚洲必赢官网 24

 

 

三.叁     义务调用方法总括

有两种方法:

delay和apply_async ,delay方法是apply_async简化版。

add.delay(2, 2)
add.apply_async((2, 2))
add.apply_async((2, 2), queue='lopri')

 

delay方法是apply_async简化版本。

apply_async方法是足以带拾叁分多的安排参数,包含钦命队列等

  • Queue 钦命队列名称,能够把分化任务分配到分化的行列

 

内置钩子函数

  Celery在实施任务时候,提供了钩子方法用于在任务执行到位时候进行相应的操作,在Task源码中提供了累累情景钩子函数如:on_success(成功后执行)、on_failure(战败时候实施)、on_retry(任务重试时候实施)、after_return(职责回到时候实施),在进行应用是我们只须求重写那么些点子,完毕相应的操作即可。

在偏下示例中,大家继承修改period_task.py,分别定义四个职分来演示任务失败、重试、职责成功后实施的操作:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from project import app
from celery.utils.log import get_task_logger
from celery import Task

logger = get_task_logger(__name__)

class demotask(Task):

    def on_success(self, retval, task_id, args, kwargs):   # 任务成功执行
        logger.info('task id:{} , arg:{} , successful !'.format(task_id,args))



    def on_failure(self, exc, task_id, args, kwargs, einfo):  #任务失败执行
        logger.info('task id:{} , arg:{} , failed ! erros : {}' .format(task_id,args,exc))


    def on_retry(self, exc, task_id, args, kwargs, einfo):    #任务重试执行
        logger.info('task id:{} , arg:{} , retry !  einfo: {}'.format(task_id, args, exc))

@app.task(base=demotask,bind=True)
def add(self,x,y):
    try:
        a=[]
        a[10]==1
    except Exception as e:
        raise self.retry(exc=e, countdown=5, max_retries=1) # 出错每5秒尝试一次,总共尝试1次
    return x+y

@app.task(base=demotask)
def sayhi(name):
    a=[]
    a[10]==1
    return 'hi {}'.format(name)

@app.task(base=demotask)
def sum(a,b):
    return 'a+b={} '.format(a+b)

那儿的配备文件config.py:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd

from project import app
from celery.schedules import crontab

BROKER_URL = 'redis://10.1.210.69:6379/0' # Broker配置,使用Redis作为消息中间件

CELERY_RESULT_BACKEND = 'redis://10.1.210.69:6379/0' # BACKEND配置,这里使用redis

CELERY_RESULT_SERIALIZER = 'json' # 结果序列化方案

CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24 # 任务过期时间

CELERY_TIMEZONE='Asia/Shanghai'   # 时区配置

CELERY_IMPORTS = (     # 指定导入的任务模块,可以指定多个
    'project.tasks',
    'project.period_task',
)

app.conf.beat_schedule = {
'add': {          # 每10秒执行
        'task': 'project.period_task.add',  #任务路径
        'schedule': 10.0,
        'args': (10,12),
    },
'sayhi': {          # 每10秒执行
        'task': 'project.period_task.sayhi',  #任务路径
        'schedule': 10.0,
        'args': ('wd',),
    },
'sum': {          # 每10秒执行
        'task': 'project.period_task.sum',  #任务路径
        'schedule': 10.0,
        'args': (1,3),
    },
}

接下来重启worker和beat,查看日志:

亚洲必赢官网 25

 

4与Django集成

上边简单介绍了celery异步职责的骨干情势,结合我们实际上的选择,大家须要与Django一起使用,上边介绍怎么样与Django结合。

三.3     义务调用方法计算

有二种办法:

delay和apply_async ,delay方法是apply_async简化版。

add.delay(2, 2)
add.apply_async((2, 2))
add.apply_async((2, 2), queue='lopri')

 

delay方法是apply_async简化版本。

apply_async方法是足以带相当多的配置参数,包含钦命队列等

  • Queue 钦定队列名称,能够把不一致任务分配到差别的队列

 

3.四     职责状态

各个任务有三种景况:

PENDING -> STARTED -> SUCCESS

 

职责查询状态:

res.state

 

来询问任务的情形

 亚洲必赢官网 26

 

职分编排

  在重重地方下,四个职分必要由多少个子职务依然一个职分急需广大手续才能做到,Celery同样也能完结那样的天职,达成那项目标义务通过以下模块形成:

  • group: 并行调度任务

  • chain: 链式职分调度

  • chord:
    类似group,但分header和body三个部分,header能够是3个group任务,执行到位后调用body的任务

  • map: 映射调度,通过输入八个入参来数拾次调度同一个职务

  • starmap: 类似map,入参类似*args

  • chunks: 将职务根据一定数量举办分组

 

修改tasks.py:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from project import app

@app.task
def add(x,y):
    return x+y


@app.task
def mul(x,y):
    return x*y


@app.task
def sum(data_list):
    res=0
    for i in data_list:
        res+=i
    return res

 

group: 组义务,组内各种职务并行执行

和project同级目录新建consumer.py如下:

from celery import group
from project.tasks import add,mul,sum
res = group(add.s(1,2),add.s(1,2))()  # 任务 [1+2,1+2] 
while True:
    if res.ready():
        print('res:{}'.format(res.get()))
        break

结果:

亚洲必赢官网 27

 

chain:链式职务

链式职分中,暗中同意上1个任务的回到结果作为参数传递给子职分

from celery import chain
from project.tasks import add,mul,sum
res = chain(add.s(1,2),add.s(3),mul.s(3))()  # 任务((1+2)+3)*3
while True:
    if res.ready():
        print('res:{}'.format(res.get()))
        break
#结果
#res:18

还是能接纳|表示链式任务,上边职责也足以代表为:

res = (add.s(1,2) | add.s(3) | (mul.s(3)))()
res.get()

 

chord:职务分割,分为header和body两有些,hearder义务执行完在实施body,其中hearder再次回到结果作为参数字传送递给body

from celery import chord
from project.tasks import add,mul,sum
res = chord(header=[add.s(1,2),mul.s(3,4)],body=sum.s())()  # 任务(1+2)+(3*4)
while True:
    if res.ready():
        print('res:{}'.format(res.get()))
        break

#结果:
#res:15

 

chunks:职责分组,根据职责的个数分组

from project.tasks import add,mul,sum
res = add.chunks(zip(range(5),range(5)),4)()  # 4 代表每组的任务的个数
while True:
    if res.ready():
        print('res:{}'.format(res.get()))
        break

结果:

亚洲必赢官网 28

 

四.1与Django集成方法

与Django集成有三种情势:

  1. Django 1.八 以上版本:与Celery 4.0版本集成
  2. Django 一.八 以下版本:与Celery三.1版本集成,使用django-celery库

明日我们介绍celery4.0 和django 1.八之上版本集成方法。

3.④     职分情形

种种职务有三种情况:

PENDING -> STARTED -> SUCCESS

 

职分查询状态:

res.state

 

来查询任务的意况

 亚洲必赢官网 29

 

4      与Django集成

地点简单介绍了celery异步职责的着力方式,结合大家其实的使用,大家必要与Django1起使用,上边介绍怎样与Django结合。

delay &apply_async

  对于delay和apply_async都能够用来拓展职分的调度,本质上是delay对apply_async进行了再3遍封装(也许能够说是连忙格局),两者都回到AsyncResult对象,以下是四个方法源码。

亚洲必赢官网 30亚洲必赢官网 31

    def delay(self, *args, **kwargs):
        """Star argument version of :meth:`apply_async`.

        Does not support the extra options enabled by :meth:`apply_async`.

        Arguments:
            *args (Any): Positional arguments passed on to the task.
            **kwargs (Any): Keyword arguments passed on to the task.
        Returns:
            celery.result.AsyncResult: Future promise.
        """
        return self.apply_async(args, kwargs)

delay源码

亚洲必赢官网 32亚洲必赢官网 33

    def apply_async(self, args=None, kwargs=None, task_id=None, producer=None,
                    link=None, link_error=None, shadow=None, **options):
        """Apply tasks asynchronously by sending a message.

        Arguments:
            args (Tuple): The positional arguments to pass on to the task.

            kwargs (Dict): The keyword arguments to pass on to the task.

            countdown (float): Number of seconds into the future that the
                task should execute.  Defaults to immediate execution.

            eta (~datetime.datetime): Absolute time and date of when the task
                should be executed.  May not be specified if `countdown`
                is also supplied.

            expires (float, ~datetime.datetime): Datetime or
                seconds in the future for the task should expire.
                The task won't be executed after the expiration time.

            shadow (str): Override task name used in logs/monitoring.
                Default is retrieved from :meth:`shadow_name`.

            connection (kombu.Connection): Re-use existing broker connection
                instead of acquiring one from the connection pool.

            retry (bool): If enabled sending of the task message will be
                retried in the event of connection loss or failure.
                Default is taken from the :setting:`task_publish_retry`
                setting.  Note that you need to handle the
                producer/connection manually for this to work.

            retry_policy (Mapping): Override the retry policy used.
                See the :setting:`task_publish_retry_policy` setting.

            queue (str, kombu.Queue): The queue to route the task to.
                This must be a key present in :setting:`task_queues`, or
                :setting:`task_create_missing_queues` must be
                enabled.  See :ref:`guide-routing` for more
                information.

            exchange (str, kombu.Exchange): Named custom exchange to send the
                task to.  Usually not used in combination with the ``queue``
                argument.

            routing_key (str): Custom routing key used to route the task to a
                worker server.  If in combination with a ``queue`` argument
                only used to specify custom routing keys to topic exchanges.

            priority (int): The task priority, a number between 0 and 9.
                Defaults to the :attr:`priority` attribute.

            serializer (str): Serialization method to use.
                Can be `pickle`, `json`, `yaml`, `msgpack` or any custom
                serialization method that's been registered
                with :mod:`kombu.serialization.registry`.
                Defaults to the :attr:`serializer` attribute.

            compression (str): Optional compression method
                to use.  Can be one of ``zlib``, ``bzip2``,
                or any custom compression methods registered with
                :func:`kombu.compression.register`.
                Defaults to the :setting:`task_compression` setting.

            link (Signature): A single, or a list of tasks signatures
                to apply if the task returns successfully.

            link_error (Signature): A single, or a list of task signatures
                to apply if an error occurs while executing the task.

            producer (kombu.Producer): custom producer to use when publishing
                the task.

            add_to_parent (bool): If set to True (default) and the task
                is applied while executing another task, then the result
                will be appended to the parent tasks ``request.children``
                attribute.  Trailing can also be disabled by default using the
                :attr:`trail` attribute

            publisher (kombu.Producer): Deprecated alias to ``producer``.

            headers (Dict): Message headers to be included in the message.

        Returns:
            celery.result.AsyncResult: Promise of future evaluation.

        Raises:
            TypeError: If not enough arguments are passed, or too many
                arguments are passed.  Note that signature checks may
                be disabled by specifying ``@task(typing=False)``.
            kombu.exceptions.OperationalError: If a connection to the
               transport cannot be made, or if the connection is lost.

        Note:
            Also supports all keyword arguments supported by
            :meth:`kombu.Producer.publish`.
        """
        if self.typing:
            try:
                check_arguments = self.__header__
            except AttributeError:  # pragma: no cover
                pass
            else:
                check_arguments(*(args or ()), **(kwargs or {}))

        app = self._get_app()
        if app.conf.task_always_eager:
            with denied_join_result():
                return self.apply(args, kwargs, task_id=task_id or uuid(),
                                  link=link, link_error=link_error, **options)

        if self.__v2_compat__:
            shadow = shadow or self.shadow_name(self(), args, kwargs, options)
        else:
            shadow = shadow or self.shadow_name(args, kwargs, options)

        preopts = self._get_exec_options()
        options = dict(preopts, **options) if options else preopts

        options.setdefault('ignore_result', self.ignore_result)

        return app.send_task(
            self.name, args, kwargs, task_id=task_id, producer=producer,
            link=link, link_error=link_error, result_cls=self.AsyncResult,
            shadow=shadow, task_type=self,
            **options
        )

apply_async源码

对于其利用,apply_async援助常用参数:

  • eta:内定任务履行时间,类型为datetime时间档次;
  • countdown:倒计时,单位秒,浮点类型;
  • expires:职务过期时间,倘使职责在当先过期时刻还未履行则回收职务,浮点类型获取datetime类型;
  • retry:任务履行破产时候是否尝试,布尔类型。;
  • serializer:连串化方案,支持pickle、json、yaml、msgpack;
  • priority:职分优先级,有0~九优先级可安装,int类型;
  • retry_policy:职责重试机制,在那之中蕴藏多少个重试参数,类型是dict如下:

亚洲必赢官网 34亚洲必赢官网 35

max_retries:最大重试次数

interval_start:重试等待时间

interval_step:每次重试叠加时长,假设第一重试等待1s,第二次等待1+n秒

interval_max:最大等待时间

####示例
 add.apply_async((1, 3), retry=True, retry_policy={
        'max_retries': 1,
        'interval_start': 0,
        'interval_step': 0.8,
        'interval_max': 5,
    })

View Code

越来越多参数参考:

 

  

肆.二 创设项目文件

始建多个品类:名字叫做proj

- proj/
 - proj/__init__.py
 - proj/settings.py
 - proj/urls.py
 - proj/wsgi.py
- manage.py

开创多个新的文书: proj/proj/mycelery.py

from __future__ import absolute_import, unicode_literals
import os
from celery import Celery

# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'proj.settings')

app = Celery('proj')

# Using a string here means the worker don't have to serialize
# the configuration object to child processes.
# - namespace='CELERY' means all celery-related configuration keys
# should have a `CELERY_` prefix.
app.config_from_object('django.conf:settings', namespace='CELERY')

# Load task modules from all registered Django app configs.
app.autodiscover_tasks()

在proj/proj/__init__.py:添加

from __future__ import absolute_import, unicode_literals

# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .mycelery import app as celery_app

__all__ = ['celery_app']

4      与Django集成

上边不难介绍了celery异步职分的宗旨办法,结合我们实在的利用,大家须求与Django1起使用,上面介绍怎么样与Django结合。

四.一     与Django集成方法

与Django集成有二种方法:

  • Django 1.8 以上版本:与Celery 4.0本子集成
  • Django 一.八 以下版本:与Celery3.壹版本集成,使用django-celery库

 

明天大家介绍celery四.0 和django 一.八之上版本集成方法。

 5、管理与监督

  Celery管理和监理功效是透过flower组件达成的,flower组件不仅仅提供监察和控制成效,还提供HTTP
API可完毕对woker和task的管理。

4.3 配置Celery

作者们在mycelery.py文件中表达celery的布署文件在settings.py中,并且是以CELERY开端。

app.config_from_object('django.conf:settings', namespace='CELERY')

在settings.py文件中添加celery配置:

亚洲必赢官网 36

我们的布置是运用redis作为新闻队列,信息的代办和结果都是用redis,职分的类别化使用json格式。

一言玖鼎:redis://1二7.0.0.一:6379/0那一个表明使用的redis的0号队列,借使有五个celery任务都应用同2个队列,则会促成职分混乱。最棒是celery实例单独使用三个行列。

四.一     与Django集成方法

与Django集成有两种方法:

  • Django 一.八 以上版本:与Celery 4.0版本集成
  • Django 一.8 以下版本:与Celery三.一版本集成,使用django-celery库

 

前天我们介绍celery四.0 和django 一.捌之上版本集成方法。

亚洲必赢官网,四.二     创造项目文件

创办四个项目:名字叫做proj

- proj/
  - proj/__init__.py
  - proj/settings.py
  - proj/urls.py
  - proj/wsgi.py
- manage.py

 

创造一个新的文件:proj/proj/mycelery.py

from __future__ import absolute_import, unicode_literals
import os
from celery import Celery

# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'proj.settings')

app = Celery('proj')

# Using a string here means the worker don't have to serialize
# the configuration object to child processes.
# - namespace='CELERY' means all celery-related configuration keys
#   should have a `CELERY_` prefix.
app.config_from_object('django.conf:settings', namespace='CELERY')

# Load task modules from all registered Django app configs.
app.autodiscover_tasks()

 

在proj/proj/__init__.py:添加

from __future__ import absolute_import, unicode_literals

# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .mycelery import app as celery_app

__all__ = ['celery_app']

 

设置使用

pip3 install flower

启动

 flower -A project --port=5555   
# -A :项目目录
#--port 指定端口

访问http:ip:5555

亚洲必赢官网 37

api使用,例如获取woker新闻:

curl http://127.0.0.1:5555/api/workers

结果:

亚洲必赢官网 38

更多api参考:

 

4.4创建APP

创建Django的App,名称为celery_task,在app目录下开创tasks.py文件。

姣好后目录结构为:

├── celery_task
│ ├── admin.py
│ ├── apps.py
│ ├── __init__.py
│ ├── migrations
│ │ └── __init__.py
│ ├── models.py
│ ├── tasks.py
│ ├── tests.py
│ └── views.py
├── db.sqlite3
├── manage.py
├── proj
│ ├── celery.py
│ ├── __init__.py
│ ├── settings.py
│ ├── urls.py
│ └── wsgi.py
└── templates

四.2     创制项目文件

创办多少个门类:名字叫做proj

- proj/
  - proj/__init__.py
  - proj/settings.py
  - proj/urls.py
  - proj/wsgi.py
- manage.py

 

始建2个新的文本:proj/proj/mycelery.py

from __future__ import absolute_import, unicode_literals
import os
from celery import Celery

# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'proj.settings')

app = Celery('proj')

# Using a string here means the worker don't have to serialize
# the configuration object to child processes.
# - namespace='CELERY' means all celery-related configuration keys
#   should have a `CELERY_` prefix.
app.config_from_object('django.conf:settings', namespace='CELERY')

# Load task modules from all registered Django app configs.
app.autodiscover_tasks()

 

在proj/proj/__init__.py:添加

from __future__ import absolute_import, unicode_literals

# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .mycelery import app as celery_app

__all__ = ['celery_app']

 

4.3     配置Celery

大家在mycelery.py文件中证实celery的布置文件在settings.py中,并且是以CELEXC90Y开头。

   

app.config_from_object('django.conf:settings', namespace='CELERY')

 

在settings.py文件中添加celery配置:

 亚洲必赢官网 39

 

咱俩的布置是应用redis作为音信队列,音信的代办和结果都是用redis,职责的种类化使用json格式。

重点:redis://127.0.0.一:6379/0以此注明使用的redis的0号队列,假诺有多少个celery职责都使用同3个队列,则会造成职分混乱。最棒是celery实例单独选拔3个种类。

4.5编写task任务

编纂职责文件

tasks.py

在tasks.py文件中添加上边代码

# Create your tasks here
from __future__ import absolute_import, unicode_literals
from celery import shared_task

@shared_task
def add(x, y):
 return x + y

@shared_task
def mul(x, y):
 return x * y

@shared_task
def xsum(numbers):
 return sum(numbers)

启动celery:celery -A proj.mycelery worker -l info

说明:proj 为模块名称,mycelery 为celery 的实例所在的文件。

启航成功打字与印刷:

亚洲必赢官网 40

4.3     配置Celery

大家在mycelery.py文件中证实celery的配置文件在settings.py中,并且是以CELE奥迪Q伍Y起始。

   

app.config_from_object('django.conf:settings', namespace='CELERY')

 

在settings.py文件中添加celery配置:

 亚洲必赢官网 41

 

咱俩的配置是利用redis作为新闻队列,信息的代办和结果都以用redis,职责的连串化使用json格式。

根本:redis://12七.0.0.1:6379/0以此注脚使用的redis的0号队列,借使有多少个celery职分都接纳同一个连串,则会造成职分混乱。最棒是celery实例单独使用2个行列。

4.4     创建APP

创建Django的App,名称为celery_task,在app目录下开创tasks.py文件。

完了后目录结构为:

├── celery_task
│   ├── admin.py
│   ├── apps.py
│   ├── __init__.py
│   ├── migrations
│   │   └── __init__.py
│   ├── models.py
│   ├── tasks.py
│   ├── tests.py
│   └── views.py
├── db.sqlite3
├── manage.py
├── proj
│   ├── celery.py
│   ├── __init__.py
│   ├── settings.py
│   ├── urls.py
│   └── wsgi.py
└── templates

 

四.6在views中调用职责

在views中编辑接口,完毕七个职能:

  1. 接触职分,然后重返职分的结果和天职ID
  2. 听他们说职责ID查询职责状态

代码如下:

亚洲必赢官网 42

启动django。

新开1个对话运营celery;运转命令为:celery –A proj.mycelery worker –l
info

访问 ,能够看来重回的结果。

亚洲必赢官网 43

在celery运行的页面,能够见见下边输出:

亚洲必赢官网 44

4.4     创建APP

创建Django的App,名称为celery_task,在app目录下开创tasks.py文件。

形成后目录结构为:

├── celery_task
│   ├── admin.py
│   ├── apps.py
│   ├── __init__.py
│   ├── migrations
│   │   └── __init__.py
│   ├── models.py
│   ├── tasks.py
│   ├── tests.py
│   └── views.py
├── db.sqlite3
├── manage.py
├── proj
│   ├── celery.py
│   ├── __init__.py
│   ├── settings.py
│   ├── urls.py
│   └── wsgi.py
└── templates

 

4.5     编写task任务

编写制定职责文件

tasks.py

在tasks.py文件中添加下边代码

# Create your tasks here
from __future__ import absolute_import, unicode_literals
from celery import shared_task

@shared_task
def add(x, y):
    return x + y

@shared_task
def mul(x, y):
    return x * y

@shared_task
def xsum(numbers):
    return sum(numbers)

 

启动celery:

celery -A proj.mycelery worker -l info

 

表达:proj为模块名称,mycelery为celery的实例所在的文件。

开发银行成功打字与印刷:

 亚洲必赢官网 45

 

四.7在views中查询职分景况

一部分时候职务执行时间较长,要求查询职务是不是推行到位,能够依照职分的id来询问职务景况,根据事态举行下一步操作。

能够看到任务的情事为:SUCCESS

亚洲必赢官网 46

4.5     编写task任务

编写制定职分文件

tasks.py

在tasks.py文件中添加上面代码

# Create your tasks here
from __future__ import absolute_import, unicode_literals
from celery import shared_task

@shared_task
def add(x, y):
    return x + y

@shared_task
def mul(x, y):
    return x * y

@shared_task
def xsum(numbers):
    return sum(numbers)

 

启动celery:

celery -A proj.mycelery worker -l info

 

证实:proj为模块名称,mycelery为celery的实例所在的文件。

开发银行成功打字与印刷:

 亚洲必赢官网 47

 

四.陆     在views中调用职责

在views中编辑接口,完毕五个效益:

  • 接触职责,然后回到职责的结果和任务ID
  • 据悉职务ID查询职责意况

代码如下:

 亚洲必赢官网 48

 

启动django。

新开贰个对话运营celery;运转命令为:

celery –A proj.mycelery worker –l info

 

访问,能够观看重回的结果。

 亚洲必赢官网 49

 

在celery运转的页面,能够看出下边输出:

 亚洲必赢官网 50

 

5Celery定时义务

Celery作为异步职分队列,大家能够遵照我们设置的日子,定时的履行1些职分,例如天天数据库备份,日志转存等。

Celery的定时职分安顿卓殊不难:

定时职务的安插依然在setting.py文件中。

证实:假设以为celery 的多寡配置文件和Django 的都在setting.py
叁个文本中不便于,能够分拆出来,只须求在mycelery.py
的文本中指明即可。

app.config_from_object('django.conf:yoursettingsfile', namespace='CELERY')

④.陆     在views中调用任务

在views中编辑接口,达成四个效益:

  • 接触义务,然后回来职分的结果和天职ID
  • 依据任务ID查询职责状态

代码如下:

 亚洲必赢官网 51

 

启动django。

新开一个会话运转celery;运维命令为:

celery –A proj.mycelery worker –l info

 

访问

 亚洲必赢官网 52

 

在celery运营的页面,能够见见上边输出:

 亚洲必赢官网 53

 

肆.七     在views中查询任务情状

壹对时候职责执行时间较长,须要查询职务是不是进行到位,能够依据职分的id来询问任务景况,依照事态举行下一步操作。

能够看来义务的气象为:SUCCESS

 亚洲必赢官网 54

 

5.1职务间隔运转

#每30秒调用task.add
from datetime import timedelta

CELERY_BEAT_SCHEDULE = {
 'add-every-30-seconds': {
  'task': 'tasks.add',
  'schedule': timedelta(seconds=30),
  'args': (16, 16)
 },
}

4.7     在views中询问任务情形

一对时候职责执行时间较长,必要查询任务是不是执行到位,能够依据职务的id来询问职务状态,依照情形举行下一步操作。

能够看来职务的气象为:SUCCESS

 亚洲必赢官网 55

 

五      Celery定时职务

Celery作为异步义务队列,大家能够服从我们设置的时日,定时的执行一些任务,例如每日数据库备份,日志转存等。

Celery的定时职务安顿分外不难:

定时任务的配置依旧在setting.py文件中。

证实:要是以为celery的数量配置文件和Django的都在setting.py三个文件中不便于,能够分拆出来,只供给在mycelery.py的文件中指明即可。

app.config_from_object('django.conf:yoursettingsfile', namespace='CELERY')

 

 

5.二定时执行

定时每一日晚上柒:二十八分运作。

小心:设置职务时间时注意时间格式,UTC时间恐怕本地时间。

#crontab任务
#每天7:30调用task.add
from celery.schedules import crontab

CELERY_BEAT_SCHEDULE = {
 # Executes every Monday morning at 7:30 A.M
 'add-every-monday-morning': {
  'task': 'tasks.add',
  'schedule': crontab(hour=7, minute=30),
  'args': (16, 16),
 },
}

5      Celery定时任务

Celery作为异步职责队列,大家能够依照我们设置的年月,定时的执行1些职务,例如天天数据库备份,日志转存等。

Celery的定时任务布署13分简单:

定时任务的布局依旧在setting.py文件中。

表明:假诺觉得celery的数据配置文件和Django的都在setting.py一个文件中不便于,能够分拆出来,只要求在mycelery.py的文件中指明即可。

app.config_from_object('django.conf:yoursettingsfile', namespace='CELERY')

 

 

伍.一     职务间隔运维

#每30秒调用task.add
from datetime import timedelta

CELERY_BEAT_SCHEDULE = {
    'add-every-30-seconds': {
        'task': 'tasks.add',
        'schedule': timedelta(seconds=30),
        'args': (16, 16)
    },
}

 

伍.三定时职分运转

配置了定时职分,除了worker进程外,还索要运营2个beat进度。

Beat进程的效应就一定于2个定时任务,依据安插来执行相应的职分。

5.3.1  启动beat进程

指令如下:celery -A proj.mycelery beat -l info

亚洲必赢官网 56

5.3.2  启动worker进程

Worker过程运维和前面运行命令1样。celery –A proj.mycelery worker –l info

亚洲必赢官网 57

5.1     职分间隔运营

#每30秒调用task.add
from datetime import timedelta

CELERY_BEAT_SCHEDULE = {
    'add-every-30-seconds': {
        'task': 'tasks.add',
        'schedule': timedelta(seconds=30),
        'args': (16, 16)
    },
}

 

5.二     定时实施

定时每一日早晨七:三十多分运转。

在意:设置职责时间时只顾时间格式,UTC时间依然地面时间。

#crontab任务
#每天7:30调用task.add
from celery.schedules import crontab

CELERY_BEAT_SCHEDULE = {
    # Executes every Monday morning at 7:30 A.M
    'add-every-monday-morning': {
        'task': 'tasks.add',
        'schedule': crontab(hour=7, minute=30),
        'args': (16, 16),
    },
}

 

6 Celery深入

Celery职务帮衬多元的运作形式:

  1. 协理动态内定并发数 –autoscale=10,三 (always keep 3 processes, but
    grow to 十 if necessary).
  2. 支撑链式职分
  3. 支持Group任务
  4. 支撑任务不相同优先级
  5. 支持钦点任务队列
  6. 支撑选拔eventlet方式运作worker

诸如:内定并发数为1000

celery -A proj.mycelery worker -c 1000

这几个足以依照使用的刻骨铭心机关了解和读书。

以上就是本文的全体内容,希望对我们的学习抱有帮忙,也愿意大家多多匡助脚本之家。

5.贰     定时举办

定时每一日晚上7:二二十一分运维。

小心:设置任务时间时留意时间格式,UTC时间只怕地面时间。

#crontab任务
#每天7:30调用task.add
from celery.schedules import crontab

CELERY_BEAT_SCHEDULE = {
    # Executes every Monday morning at 7:30 A.M
    'add-every-monday-morning': {
        'task': 'tasks.add',
        'schedule': crontab(hour=7, minute=30),
        'args': (16, 16),
    },
}

 

5.3     定时职分运转

布局了定时职务,除了worker进度外,还索要运转3个beat进程。

Beat进度的职能就一定于七个定时任务,根据安插来举办相应的职分。

你或许感兴趣的稿子:

  • Django中使用celery达成异步职务的演示代码
  • 异步职分队列Celery在Django中的运用办法

5.三     定时职分运转

布署了定时职分,除了worker进度外,还供给运维二个beat进度。

Beat进度的功效就也正是2个定时职责,依照配置来推行相应的职务。

5.3.1  启动beat进程

指令如下:

celery -A proj.mycelery beat -l info

 亚洲必赢官网 58

 

5.3.1  启动beat进程

一声令下如下:

celery -A proj.mycelery beat -l info

 亚洲必赢官网 59

 

5.3.2  启动worker进程

Worker进度运行和前边运转命令壹样。

 

celery –A proj.mycelery worker –l info

亚洲必赢官网 60

 

5.3.2  启动worker进程

Worker进度运行和前面运行命令壹样。

 

celery –A proj.mycelery worker –l info

 

6      Celery深入

Celery义务帮助多元的运转情势:

  • 补助动态钦定并发数 –autoscale=十,三 (always keep 三 processes, but
    grow to 10 if necessary).
  • 支撑链式任务
  • 支持Group任务
  • 协助职务不一样优先级
  • 协助内定任务队列
  • 辅助使用eventlet格局运维worker

比如说:内定并发数为一千

celery -A proj.mycelery worker -c 1000

 

这个能够依据使用的尖锐机关理解和读书。

 

 

6      Celery深入

Celery职责帮忙多元的运行形式:

  • 协助动态内定并发数 –autoscale=10,三 (always keep 3 processes, but
    grow to 十 if necessary).
  • 支撑链式职责
  • 支持Group任务
  • 协理职分差异优先级
  • 帮助钦赐职分队列
  • 援助使用eventlet形式运作worker

比如说:指定并发数为一千

celery -A proj.mycelery worker -c 1000

 

这几个足以依据使用的深切机关通晓和上学。

 

 

7      参考资料

Celery官网:

Celery与Django:

celery定时职责:

7      参考资料

Celery官网:

Celery与Django:

celery定时职责:

一Celery简介
Celery是异步职务队列,可以独自于主过程运营,在主进度退出后,也不影响队列中的职分…

网站地图xml地图