Я использую сельдерей (соло-пул с параллелизмом = 1), и я хочу, чтобы я мог закрыть работника после выполнения конкретной задачи. Оговорка заключается в том, что я хочу избежать возможности того, чтобы работник взял на себя все дальнейшие задачи после этого.
Здесь моя попытка в схеме:
from __future__ import absolute_import, unicode_literals
from celery import Celery
from celery.exceptions import WorkerShutdown
from celery.signals import task_postrun
app = Celery()
app.config_from_object('celeryconfig')
@app.task
def add(x, y):
return x + y
@task_postrun.connect(sender=add)
def shutdown(*args, **kwargs):
raise WorkerShutdown()
Однако, когда я запускаю рабочего
celery -A celeryapp worker --concurrency=1 --pool=solo
и выполнить задачу
add.delay(1,4)
Я получаю следующее:
-------------- [email protected] v4.0.2 (latentcall)
---- **** -----
--- * *** * -- Linux-4.4.0-116-generic-x86_64-with-Ubuntu-16.04-xenial 2018-03-18 14:08:37
-- * - **** ---
- ** ---------- [config]
- ** ---------- .> app: __main__:0x7f596896ce90
- ** ---------- .> transport: redis://localhost:6379/0
- ** ---------- .> results: redis://localhost/
- *** --- * --- .> concurrency: 4 (solo)
-- ******* ---- .> task events: OFF (enable -E to monitor tasks in this worker)
--- ***** -----
-------------- [queues]
.> celery exchange=celery(direct) key=celery
[2018-03-18 14:08:39,892: WARNING/MainProcess] Restoring 1 unacknowledged message(s)
Задача переупорядочивается и снова запускается на другого работника, что приводит к циклу.
Это также происходит, когда я перемещаю исключение WorkerShutdown
внутри самой задачи.
@app.task
def add(x, y):
print(x + y)
raise WorkerShutdown()
Есть ли способ, которым я могу закрыть работника после конкретной задачи, избегая этого неудачного побочного эффекта?