# 用Celery擴大規模
`CeleryExecutor`是您擴展工人數量的方法之一。 為此,您需要設置Celery后端( **RabbitMQ** , **Redis** ,...)并更改`airflow.cfg`以將執行程序參數指向`CeleryExecutor`并提供相關的Celery設置。
有關設置Celery代理的更多信息,請參閱[有關該主題](http://docs.celeryproject.org/en/latest/getting-started/brokers/index.html)的詳盡[Celery文檔](http://docs.celeryproject.org/en/latest/getting-started/brokers/index.html) 。
以下是您的員工的一些必要要求:
* 需要安裝airflow,CLI需要在路徑中
* 整個群集中的氣流配置設置應該是同構的
* 在worker上執行的操作符需要在該上下文中滿足其依賴項。 例如,如果您使用`HiveOperator` ,則需要在該框上安裝hive CLI,或者如果您使用`MySqlOperator` ,則必須以某種方式在`PYTHONPATH`提供所需的Python庫
* 工作人員需要訪問其`DAGS_FOLDER` ,您需要通過自己的方式同步文件系統。 常見的設置是將DAGS_FOLDER存儲在Git存儲庫中,并使用Chef,Puppet,Ansible或用于配置環境中的計算機的任何內容在計算機之間進行同步。 如果您的所有盒子都有一個共同的掛載點,那么共享您的管道文件也應該可以正常工作
要啟動工作人員,您需要設置Airflow并啟動worker子命令
```
airflow worker
```
你的工人一旦被解雇就應該開始接收任務。
請注意,您還可以運行“Celery Flower”,這是一個建立在Celery之上的Web UI,用于監控您的員工。 您可以使用快捷命令`airflow flower`啟動Flower Web服務器。
一些警告:
* 確保使用數據庫支持的結果后端
* 確保在[celery_broker_transport_options]中設置超過最長運行任務的ETA的可見性超時
* 任務可以并消耗資源,確保您的工作人員有足夠的資源來運行<cite>worker_concurrency</cite>任務