Celery task.delay在docker容器中被阻止

问题描述 投票:0回答:1

我在django项目中使用芹菜。它适用于我的MacBook和CentOS VM。当我在docker容器中运行它时,始终阻止包含add.delayadd是一个任务)方法的请求。

我在github上创建了一个演示项目:https://github.com/fengyouchao/proj_test

我的任务:

@shared_task
def add(x, y):
    return x + y

我的看法:

def index(request):
    a = int(request.GET.get('a', 1))
    b = int(request.GET.get('b', 2))
    add.delay(a, b)
    return HttpResponse("Hello world")


def hello(request):
    return HttpResponse("hello")

在演示项目中,我在docker-compose.yml中创建了三个服务:

  1. web - 运行“manage.py runserver 0.0.0.0:8000”的服务
  2. 芹菜 - 运行“芹菜”的服务
  3. rabbitmq - 运行rabbitmq-server的服务

运行服务

docker-compose up

测试

curl localhost:8000 # blocked

curl localhost:8000/hello # OK

在当前系统中运行django项目(在docker容器中使用相同的rabbitmq-server)

manage.py runserver 0.0.0.0:18000

测试

curl localhost:18000 # OK , and the "celery" service printed task logs

这个问题困扰了我很长一段时间,我不知道问题出在哪里。我希望有一个人可以帮助我。谢谢!

django docker rabbitmq celery
1个回答
0
投票

我刚刚遇到了类似的问题,

我使用rabbitmq容器作为经纪人所以在settings.py添加了CELERY_BROKER_URL

当我在manage.py django shell中运行add.delay()时,在容器内部它被击中但在生产中工作正常

所以我添加了以下更改,它开始工作

app = Celery('app', broker="amqp://rabbitmq")

0
投票

我遇到了同样的问题,并修复了导入我在proj/proj/celery.py上的proj/proj/__init__.py上创建的应用程序,如下所示:

from __future__ import absolute_import, unicode_literals

# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .celery import app as celery_app

__all__ = ('celery_app',)

您可以在Celery的first steps with django文档中查看更多信息。

希望能帮助到你!

© www.soinside.com 2019 - 2024. All rights reserved.