# 快速開始
安裝快速而直接。
```
# airflow needs a home, ~/airflow is the default,
# but you can lay foundation somewhere else if you prefer
# (optional)
export AIRFLOW_HOME = ~/airflow
# install from pypi using pip
pip install apache-airflow
# initialize the database
airflow initdb
# start the web server, default port is 8080
airflow webserver -p 8080
# start the scheduler
airflow scheduler
# visit localhost:8080 in the browser and enable the example dag in the home page
```
運行這些命令后,Airflow將創建`$AIRFLOW_HOME`文件夾,并打下一個“airflow.cfg”文件,其默認值可以讓您快速上手。 您可以在`$AIRFLOW_HOME/airflow.cfg`檢查文件,也可以通過`$AIRFLOW_HOME/airflow.cfg` `Admin->Configuration`菜單中的UI檢查文件。 如果由systemd啟動,則Web服務器的PID文件將存儲在`$AIRFLOW_HOME/airflow-webserver.pid`或`/run/airflow/webserver.pid` 。
開箱即用,Airflow使用sqlite數據庫,由于使用此數據庫后端無法進行并行化,因此您應該很快就會長大。 它與`SequentialExecutor`一起使用,它只能按順序運行任務實例。 雖然這是非常有限的,但它允許您快速啟動和運行并瀏覽UI和命令行實用程序。
以下是一些將觸發一些任務實例的命令。 在運行以下命令時,您應該能夠在`example1` DAG中看到作業的狀態發生變化。
```
# run your first task instance
airflow run example_bash_operator runme_0 2015 -01-01
# run a backfill over 2 days
airflow backfill example_bash_operator -s 2015 -01-01 -e 2015 -01-02
```
## 下一步是什么?
從這一點開始,您可以前往“ [教程”](tutorial.html)部分獲取更多示例,或者如果您已準備好弄清楚,請參閱[“操作指南”](howto/index.html)部分。