要在不同服务器上同时启动Celery任务,可以使用分布式任务队列和消息中间件来实现。以下是一种解决方法的代码示例:
首先,确保在每个服务器上都安装了Celery和所需的消息中间件(如RabbitMQ或Redis)。
在每个服务器上,创建一个Celery配置文件,例如celeryconfig.py,其中包含以下内容:
# 配置消息中间件的连接参数
broker_url = 'amqp://guest:guest@rabbitmq-server:5672//'
result_backend = 'redis://redis-server:6379/0'
# 配置任务队列
task_queues = {
'default': {
'exchange': 'default',
'routing_key': 'default',
},
}
# 配置任务执行者
task_routes = {
'myapp.tasks.*': {
'queue': 'default',
},
}
# 配置并发执行的worker数量
worker_concurrency = 4
在每个服务器上创建一个Celery应用实例,例如celeryapp.py,其中包含以下内容:
from celery import Celery
# 创建Celery应用实例
app = Celery('myapp')
# 导入Celery配置
app.config_from_object('celeryconfig')
在每个服务器上,创建一个任务模块,例如myapp/tasks.py,其中包含要执行的任务函数,例如:
from celeryapp import app
# 定义Celery任务函数
@app.task
def add(x, y):
return x + y
最后,在每个服务器上启动Celery worker进程,例如在终端中运行以下命令:
celery -A celeryapp worker --loglevel=info
这将启动一个Celery worker进程,它会连接到消息中间件,并开始监听任务队列。在每个服务器上启动worker进程后,它们就可以同时接收和执行任务了。
要调用任务并在不同服务器上执行,可以使用Celery的apply_async方法,例如在Python脚本中:
from celeryapp import app
from myapp.tasks import add
# 调用任务并异步执行
result = add.apply_async(args=(4, 5), queue='default')
注意,以上代码示例假设消息中间件和Celery应用实例的连接参数已正确配置,确保您根据实际情况进行适当的更改。