# 快速開始
> 貢獻者:[@ImPerat0R\_](https://github.com/tssujt)、[@zhongjiajie](https://github.com/zhongjiajie)
安裝是快速而直接的。
```bash
# airflow 需要 home 目錄,默認是~/airflow,
# 但是如果你需要,放在其它位置也是可以的
# (可選)
export AIRFLOW_HOME = ~/airflow
# 使用 pip 從 pypi 安裝
pip install apache-airflow
# 初始化數據庫
airflow initdb
# 啟動 web 服務器,默認端口是 8080
airflow webserver -p 8080
# 啟動定時器
airflow scheduler
# 在瀏覽器中瀏覽 localhost:8080,并在 home 頁開啟 example dag
```
運行這些命令后,Airflow 將創建`$AIRFLOW_HOME`文件夾,并放置一個`airflow.cfg`文件,其默認值可以讓您快速上手。您可以通過查看`$AIRFLOW_HOME/airflow.cfg`文件或者在 UI 的`Admin->Configuration`菜單中檢查相關配置。如果由 systemd 啟動,則 webserver 的 PID 文件將存儲在`$AIRFLOW_HOME/airflow-webserver.pid`或`/run/airflow/webserver.pid`。
開箱即用,Airflow 使用 sqlite 數據庫,由于使用此數據庫后端無法進行并行化,因此您應該迅速替換它。它與`SequentialExecutor`一起使用,但僅能按順序運行任務實例。雖然這是非常有限的,但它允許您快速啟動和運行并瀏覽 UI 和命令行實用程序。
以下是一些將觸發一些任務實例的命令。在運行以下命令時,您應該能夠在`example_bash_operator`DAG 中看到任務的狀態發生變化。
```py
# 運行第一個任務實例
airflow run example_bash_operator runme_0 2015-01-01
# 運行兩天的任務回填
airflow backfill example_bash_operator -s 2015-01-01 -e 2015-01-02
```
## 下一步是什么?
通過以上的學習,您可以前往[教程](zh/tutorial.md)部分獲取更多示例,或者前往[操作指南](zh/howto/index.md)進行更進一步的實踐。