# 命令行界面
Airflow具有非常豐富的命令行界面,允許在DAG上執行多種類型的操作,啟動服務以及支持開發和測試。
```
usage : airflow [ - h ]
{ resetdb , render , variables , connections , create_user , pause , task_failed_deps , version , trigger_dag , initdb , test , unpause , dag_state , run , list_tasks , backfill , list_dags , kerberos , worker , webserver , flower , scheduler , task_state , pool , serve_logs , clear , upgradedb , delete_dag }
...
```
## 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>子</kbd> | 可能的選擇:resetdb,render,variables,connections,create_user,pause,task_failed_deps,version,trigger_dag,initdb,test,unpause,dag_state,run,list_tasks,backfill,list_dags,kerberos,worker,webserver,flower,scheduler,task_state,pool ,serve_logs,clear,upgrab,delete_dag子命令幫助 |
## 子命令:
### resetdb
燒毀并重建元數據數據庫
```
airflow resetdb [ - h ] [ - y ]
```
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-y, - 是的</kbd> | 不要提示確認重置。 小心使用!默認值:False |
### 給予
渲染任務實例的模板
```
airflow render [ - h ] [ - sd SUBDIR ] dag_id task_id execution_date
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
| <kbd>TASK_ID</kbd> | 任務的id |
| <kbd>執行日期</kbd> | DAG的執行日期 |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
### 變量
對變量的CRUD操作
```
airflow variables [ - h ] [ - s KEY VAL ] [ - g KEY ] [ - j ] [ - d VAL ] [ - i FILEPATH ]
[ - e FILEPATH ] [ - x KEY ]
```
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-s, - set</kbd> | 設置變量 |
| <kbd>-g, - get</kbd> | 獲取變量的值 |
| <kbd>-j, - json</kbd> | 反序列化JSON變量默認值:False |
| <kbd>-d, - 默認</kbd> | 如果變量不存在,則返回默認值 |
| <kbd>-i, - 進口</kbd> | 從JSON文件導入變量 |
| <kbd>-e, - 出口</kbd> | 將變量導出到JSON文件 |
| <kbd>-x, - 刪除</kbd> | 刪除變量 |
### 連接
列表/添加/刪除連接
```
airflow connections [ - h ] [ - l ] [ - a ] [ - d ] [ -- conn_id CONN_ID ]
[ -- conn_uri CONN_URI ] [ -- conn_extra CONN_EXTRA ]
[ -- conn_type CONN_TYPE ] [ -- conn_host CONN_HOST ]
[ -- conn_login CONN_LOGIN ] [ -- conn_password CONN_PASSWORD ]
[ -- conn_schema CONN_SCHEMA ] [ -- conn_port CONN_PORT ]
```
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-l, - list</kbd> | 列出所有連接默認值:False |
| <kbd>-a, - add</kbd> | 添加連接默認值:False |
| <kbd>-d, - 刪除</kbd> | 刪除連接默認值:False |
| <kbd>--conn_id</kbd> | 添加/刪除連接所需的連接ID |
| <kbd>--conn_uri</kbd> | 連接URI,添加沒有conn_type的連接所需 |
| <kbd>--conn_extra</kbd> | 連接<cite>額外</cite>字段,添加連接時可選 |
| <kbd>--conn_type</kbd> | 連接類型,無需conn_uri即可添加連接 |
| <kbd>--conn_host</kbd> | 連接主機,添加連接時可選 |
| <kbd>--conn_login</kbd> | 連接登錄,添加連接時可選 |
| <kbd>--conn_password</kbd> |
| | 連接密碼,添加連接時可選 |
| <kbd>--conn_schema</kbd> | 連接架構,添加連接時可選 |
| <kbd>--conn_port</kbd> | 連接端口,添加連接時可選 |
### 創建用戶
創建管理員帳戶
```
airflow create_user [ - h ] [ - r ROLE ] [ - u USERNAME ] [ - e EMAIL ] [ - f FIRSTNAME ]
[ - l LASTNAME ] [ - p PASSWORD ] [ -- use_random_password ]
```
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-r,--role</kbd> | 用戶的角色。 現有角色包括Admin,User,Op,Viewer和Public |
| <kbd>-u, - username</kbd> | 用戶的用戶名 |
| <kbd>-e, - 電子郵件</kbd> | 用戶的電子郵件 |
| <kbd>-f, - firstname</kbd> |
| | 用戶的名字 |
| <kbd>-l,--lastname</kbd> | 用戶的姓氏 |
| <kbd>-p, - 密碼</kbd> | 用戶密碼 |
| <kbd>--use_random_password</kbd> |
| | 不要提示輸入密碼。 改為使用隨機字符串默認值:False |
### 暫停
暫停DAG
```
airflow pause [ - h ] [ - sd SUBDIR ] dag_id
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
### task_failed_deps
從調度程序的角度返回任務實例的未滿足的依賴項。 換句話說,為什么任務實例不會被調度程序調度然后排隊,然后由執行程序運行。
```
airflow task_failed_deps [ - h ] [ - sd SUBDIR ] dag_id task_id execution_date
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
| <kbd>TASK_ID</kbd> | 任務的id |
| <kbd>執行日期</kbd> | DAG的執行日期 |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
### 版
顯示版本
```
airflow version [ - h ]
```
### trigger_dag
觸發DAG運行
```
airflow trigger_dag [ - h ] [ - sd SUBDIR ] [ - r RUN_ID ] [ - c CONF ] [ - e EXEC_DATE ]
dag_id
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
| <kbd>-r, - run_id</kbd> | 幫助識別此次運行 |
| <kbd>-c, - conf</kbd> | JSON字符串被腌制到DagRun的conf屬性中 |
| <kbd>-e, - exec_date</kbd> |
| | DAG的執行日期 |
### 在initdb
初始化元數據數據庫
```
airflow initdb [ - h ]
```
### 測試
測試任務實例。 這將在不檢查依賴關系或在數據庫中記錄其狀態的情況下運行任務。
```
airflow test [ - h ] [ - sd SUBDIR ] [ - dr ] [ - tp TASK_PARAMS ]
dag_id task_id execution_date
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
| <kbd>TASK_ID</kbd> | 任務的id |
| <kbd>執行日期</kbd> | DAG的執行日期 |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
| <kbd>-dr, - dr_run</kbd> | 進行干運行默認值:False |
| <kbd>-tp, - task_params</kbd> |
| | 向任務發送JSON params dict |
### 取消暫停
恢復暫停的DAG
```
airflow unpause [ - h ] [ - sd SUBDIR ] dag_id
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
### dag_state
獲取dag run的狀態
```
airflow dag_state [ - h ] [ - sd SUBDIR ] dag_id execution_date
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
| <kbd>執行日期</kbd> | DAG的執行日期 |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
### 跑
運行單個任務實例
```
airflow run [ - h ] [ - sd SUBDIR ] [ - m ] [ - f ] [ -- pool POOL ] [ -- cfg_path CFG_PATH ]
[ - l ] [ - A ] [ - i ] [ - I ] [ -- ship_dag ] [ - p PICKLE ] [ - int ]
dag_id task_id execution_date
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
| <kbd>TASK_ID</kbd> | 任務的id |
| <kbd>執行日期</kbd> | DAG的執行日期 |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
| <kbd>-m, - mark_success</kbd> |
| | 將作業標記為成功而不運行它們默認值:False |
| <kbd>-f, - force</kbd> | 忽略先前的任務實例狀態,無論任務是否已成功/失敗,都重新運行默認值:False |
| <kbd>--pool</kbd> | 要使用的資源池 |
| <kbd>--cfg_path</kbd> | 要使用的配置文件的路徑而不是airflow.cfg |
| <kbd>-l, - 本地</kbd> | 使用LocalExecutor運行任務默認值:False |
| <kbd>-A, - ignore_all_dependencies</kbd> |
| | 忽略所有非關鍵依賴項,包括ignore_ti_state和ignore_task_deps默認值:False |
| <kbd>-i,--ignore_dependencies</kbd> |
| | 忽略特定于任務的依賴項,例如upstream,depends_on_past和重試延遲依賴項默認值:False |
| <kbd>-I, - signore_depends_on_past</kbd> |
| | 忽略depends_on_past依賴項(但尊重上游依賴項)默認值:False |
| <kbd>--ship_dag</kbd> | 泡菜(序列化)DAG并將其運送給工人默認值:False |
| <kbd>-p, - pickle</kbd> | 整個dag的序列化pickle對象(內部使用) |
| <kbd>-int, - interactive</kbd> |
| | 不捕獲標準輸出和錯誤流(對交互式調試很有用)默認值:False |
### list_tasks
列出DAG中的任務
```
airflow list_tasks [ - h ] [ - t ] [ - sd SUBDIR ] dag_id
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-t, - 樹</kbd> | 樹視圖默認值:False |
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
### 回填
在指定的日期范圍內運行DAG的子部分。 如果使用reset_dag_run選項,則回填將首先提示用戶氣流是否應清除回填日期范圍內的所有先前dag_run和task_instances。如果使用rerun_failed_tasks,則回填將自動重新運行回填日期范圍內的先前失敗的任務實例。
```
airflow backfill [ - h ] [ - t TASK_REGEX ] [ - s START_DATE ] [ - e END_DATE ] [ - m ] [ - l ]
[ - x ] [ - i ] [ - I ] [ - sd SUBDIR ] [ -- pool POOL ]
[ -- delay_on_limit DELAY_ON_LIMIT ] [ - dr ] [ - v ] [ - c CONF ]
[ -- reset_dagruns ] [ -- rerun_failed_tasks ]
dag_id
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-t, - task_regex</kbd> |
| | 用于過濾特定task_ids以回填的正則表達式(可選) |
| <kbd>-s, - start_date</kbd> |
| | 覆蓋start_date YYYY-MM-DD |
| <kbd>-e, - end_date</kbd> | 覆蓋end_date YYYY-MM-DD |
| <kbd>-m, - mark_success</kbd> |
| | 將作業標記為成功而不運行它們默認值:False |
| <kbd>-l, - 本地</kbd> | 使用LocalExecutor運行任務默認值:False |
| <kbd>-x, - donot_pickle</kbd> |
| | 不要試圖挑選DAG對象發送給工人,只要告訴工人運行他們的代碼版本。默認值:False |
| <kbd>-i,--ignore_dependencies</kbd> |
| | 跳過上游任務,僅運行與正則表達式匹配的任務。 僅適用于task_regex默認值:False |
| <kbd>-I, - signore_first_depends_on_past</kbd> |
| | 僅忽略第一組任務的depends_on_past依賴關系(回填DO中的后續執行依賴depends_on_past)。默認值:False |
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
| <kbd>--pool</kbd> | 要使用的資源池 |
| <kbd>--delay_on_limit</kbd> |
| | 在嘗試再次執行dag運行之前達到最大活動dag運行限制(max_active_runs)時等待的時間(以秒為單位)。默認值:1.0 |
| <kbd>-dr, - dr_run</kbd> | 進行干運行默認值:False |
| <kbd>-v, - verbose</kbd> | 使日志輸出更詳細默認值:False |
| <kbd>-c, - conf</kbd> | JSON字符串被腌制到DagRun的conf屬性中 |
| <kbd>--reset_dagruns</kbd> |
| | 如果設置,則回填將刪除現有的與回填相關的DAG運行,并重新開始運行新的DAG運行默認值:False |
| <kbd>--rerun_failed_tasks</kbd> |
| | 如果設置,則回填將自動重新運行回填日期范圍的所有失敗任務,而不是拋出異常默認值:False |
### list_dags
列出所有DAG
```
airflow list_dags [ - h ] [ - sd SUBDIR ] [ - r ]
```
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
| <kbd>-r, - 報告</kbd> | 顯示DagBag加載報告默認值:False |
### Kerberos的
啟動kerberos票證續訂
```
airflow kerberos [ - h ] [ - kt [ KEYTAB ]] [ -- pid [ PID ]] [ - D ] [ -- stdout STDOUT ]
[ -- stderr STDERR ] [ - l LOG_FILE ]
[ principal ]
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>主要</kbd> | 凱伯羅斯校長默認值:氣流 |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-kt, - keytab</kbd> | 密鑰表默認值:airflow.keytab |
| <kbd>--pid</kbd> | PID文件位置 |
| <kbd>-D, - damon</kbd> | 守護進程而不是在前臺運行默認值:False |
| <kbd>--stdout</kbd> | 將stdout重定向到此文件 |
| <kbd>--stderr</kbd> | 將stderr重定向到此文件 |
| <kbd>-l, - log-file</kbd> | 日志文件的位置 |
### 工人
啟動Celery工作節點
```
airflow worker [ - h ] [ - p ] [ - q QUEUES ] [ - c CONCURRENCY ] [ - cn CELERY_HOSTNAME ]
[ -- pid [ PID ]] [ - D ] [ -- stdout STDOUT ] [ -- stderr STDERR ]
[ - l LOG_FILE ]
```
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-p, - do_pickle</kbd> |
| | 嘗試將DAG對象發送給工作人員,而不是讓工作人員運行他們的代碼版本。默認值:False |
| <kbd>-q, - 隊列</kbd> | 以逗號分隔的隊列列表默認值:默認值 |
| <kbd>-c, - 并發</kbd> |
| | 工作進程的數量默認值:16 |
| <kbd>-cn, - slowry_hostname</kbd> |
| | 如果一臺計算機上有多個worker,請設置芹菜工作者的主機名。 |
| <kbd>--pid</kbd> | PID文件位置 |
| <kbd>-D, - damon</kbd> | 守護進程而不是在前臺運行默認值:False |
| <kbd>--stdout</kbd> | 將stdout重定向到此文件 |
| <kbd>--stderr</kbd> | 將stderr重定向到此文件 |
| <kbd>-l, - log-file</kbd> | 日志文件的位置 |
### 網絡服務器
啟動Airflow網絡服務器實例
```
airflow webserver [ - h ] [ - p PORT ] [ - w WORKERS ]
[ - k { sync , eventlet , gevent , tornado }] [ - t WORKER_TIMEOUT ]
[ - hn HOSTNAME ] [ -- pid [ PID ]] [ - D ] [ -- stdout STDOUT ]
[ -- stderr STDERR ] [ - A ACCESS_LOGFILE ] [ - E ERROR_LOGFILE ]
[ - l LOG_FILE ] [ -- ssl_cert SSL_CERT ] [ -- ssl_key SSL_KEY ] [ - d ]
```
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-p, - port</kbd> | 運行服務器的端口默認值:8080 |
| <kbd>-w, - 工作人員</kbd> | 運行Web服務器的工作者數量默認值:4 |
| <kbd>-k, - workerclass</kbd> |
| | 可能的選擇:同步,eventlet,gevent,龍卷風用于Gunicorn的工人階級默認值:同步 |
| <kbd>-t, - worker_timeout</kbd> |
| | 等待Web服務器工作者的超時時間默認值:120 |
| <kbd>-hn, - hostname</kbd> |
| | 設置運行Web服務器的主機名默認值:0.0.0.0 |
| <kbd>--pid</kbd> | PID文件位置 |
| <kbd>-D, - damon</kbd> | 守護進程而不是在前臺運行默認值:False |
| <kbd>--stdout</kbd> | 將stdout重定向到此文件 |
| <kbd>--stderr</kbd> | 將stderr重定向到此文件 |
| <kbd>-A, - access_logfile</kbd> |
| | 用于存儲Web服務器訪問日志的日志文件。 使用' - '打印到stderr。默認值: - |
| <kbd>-E, - error_logfile</kbd> |
| | 用于存儲Web服務器錯誤日志的日志文件。 使用' - '打印到stderr。默認值: - |
| <kbd>-l, - log-file</kbd> | 日志文件的位置 |
| <kbd>--ssl_cert</kbd> | Web服務器的SSL證書的路徑 |
| <kbd>--ssl_key</kbd> | 用于SSL證書的密鑰的路徑 |
| <kbd>-d, - debug</kbd> | 在調試模式下使用Flask附帶的服務器默認值:False |
### 花
開始芹菜花
```
airflow flower [ - h ] [ - hn HOSTNAME ] [ - p PORT ] [ - fc FLOWER_CONF ] [ - u URL_PREFIX ]
[ - a BROKER_API ] [ -- pid [ PID ]] [ - D ] [ -- stdout STDOUT ]
[ -- stderr STDERR ] [ - l LOG_FILE ]
```
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-hn, - hostname</kbd> |
| | 設置運行服務器的主機名默認值:0.0.0.0 |
| <kbd>-p, - port</kbd> | 運行服務器的端口默認值:5555 |
| <kbd>-fc, - flowers_conf</kbd> |
| | 花的配置文件 |
| <kbd>-u, - url_prefix</kbd> |
| | Flower的URL前綴 |
| <kbd>-a, - broker_api</kbd> |
| | 經紀人api |
| <kbd>--pid</kbd> | PID文件位置 |
| <kbd>-D, - damon</kbd> | 守護進程而不是在前臺運行默認值:False |
| <kbd>--stdout</kbd> | 將stdout重定向到此文件 |
| <kbd>--stderr</kbd> | 將stderr重定向到此文件 |
| <kbd>-l, - log-file</kbd> | 日志文件的位置 |
### 調度
啟動調度程序實例
```
airflow scheduler [ - h ] [ - d DAG_ID ] [ - sd SUBDIR ] [ - r RUN_DURATION ]
[ - n NUM_RUNS ] [ - p ] [ -- pid [ PID ]] [ - D ] [ -- stdout STDOUT ]
[ -- stderr STDERR ] [ - l LOG_FILE ]
```
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-d, - dag_id</kbd> | 要運行的dag的id |
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
| <kbd>-r, - 運行時間</kbd> |
| | 設置退出前執行的秒數 |
| <kbd>-n, - num_runs</kbd> | 設置退出前要執行的運行次數默認值:-1 |
| <kbd>-p, - do_pickle</kbd> |
| | 嘗試將DAG對象發送給工作人員,而不是讓工作人員運行他們的代碼版本。默認值:False |
| <kbd>--pid</kbd> | PID文件位置 |
| <kbd>-D, - damon</kbd> | 守護進程而不是在前臺運行默認值:False |
| <kbd>--stdout</kbd> | 將stdout重定向到此文件 |
| <kbd>--stderr</kbd> | 將stderr重定向到此文件 |
| <kbd>-l, - log-file</kbd> | 日志文件的位置 |
### task_state
獲取任務實例的狀態
```
airflow task_state [ - h ] [ - sd SUBDIR ] dag_id task_id execution_date
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
| <kbd>TASK_ID</kbd> | 任務的id |
| <kbd>執行日期</kbd> | DAG的執行日期 |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
### 池
池上的CRUD操作
```
airflow pool [ - h ] [ - s NAME SLOT_COUNT POOL_DESCRIPTION ] [ - g NAME ] [ - x NAME ]
```
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-s, - set</kbd> | 分別設置池槽數和描述 |
| <kbd>-g, - get</kbd> | 獲取泳池信息 |
| <kbd>-x, - 刪除</kbd> | 刪除池 |
### serve_logs
由工人生成的服務日志
```
airflow serve_logs [ - h ]
```
### 明確
清除一組任務實例,就好像它們從未運行過一樣
```
airflow clear [ - h ] [ - t TASK_REGEX ] [ - s START_DATE ] [ - e END_DATE ] [ - sd SUBDIR ]
[ - u ] [ - d ] [ - c ] [ - f ] [ - r ] [ - x ] [ - dx ]
dag_id
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-t, - task_regex</kbd> |
| | 用于過濾特定task_ids以回填的正則表達式(可選) |
| <kbd>-s, - start_date</kbd> |
| | 覆蓋start_date YYYY-MM-DD |
| <kbd>-e, - end_date</kbd> | 覆蓋end_date YYYY-MM-DD |
| <kbd>-sd, - subdir</kbd> | 從中查找dag的文件位置或目錄默認值:/ Users / kaxil / airflow / dags |
| <kbd>-u, - upstream</kbd> | 包括上游任務默認值:False |
| <kbd>-d, - downstream</kbd> |
| | 包括下游任務默認值:False |
| <kbd>-c, - no_confirm</kbd> |
| | 請勿要求確認默認值:False |
| <kbd>-f, - only_failed</kbd> |
| | 只有失敗的工作默認值:False |
| <kbd>-r, - only_running</kbd> |
| | 只運行工作默認值:False |
| <kbd>-x, - exclude_subdags</kbd> |
| | 排除子標記默認值:False |
| <kbd>-dx, - dag_regex</kbd> |
| | 將dag_id搜索為正則表達式而不是精確字符串默認值:False |
### UPGRADEDB
將元數據數據庫升級到最新版本
```
airflow upgradedb [ - h ]
```
### delete_dag
刪除與指定DAG相關的所有DB記錄
```
airflow delete_dag [ - h ] [ - y ] dag_id
```
#### 位置參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>dag_id</kbd> | dag的id |
#### 命名參數
<colgroup><col class="option"><col class="description"></colgroup>
| <kbd>-y, - 是的</kbd> | 不要提示確認重置。 小心使用!默認值:False |