# 部署 Spider
> 譯者:[OSGeo 中國](https://www.osgeo.cn/)
本節描述了部署 Scrapy Spider 以定期運行它們的不同選項。在您的本地機器中運行碎片 Spider 對于(早期)開發階段非常方便,但是當您需要執行長時間運行的 Spider 或移動 Spider 以在生產中連續運行時,就不那么方便了。這就是部署 Scrapy Spider 的解決方案。
部署 Scrapy Spider 的常見選擇是:
* [Scrapyd](#deploy-scrapyd) (開放源代碼)
* [Scrapy Cloud](#deploy-scrapy-cloud) (基于云的)
## 部署到ScrapyD服務器
[Scrapyd](https://github.com/scrapy/scrapyd) 是一個開放源碼的應用程序,可以運行碎片 Spider 。它為服務器提供了HTTP API,能夠運行和監視碎片 Spider 。
要將spiders部署到scrapyD,可以使用由提供的scrapyD部署工具 [scrapyd-client](https://github.com/scrapy/scrapyd-client) 包。請參閱 [scrapyd-deploy documentation](https://scrapyd.readthedocs.io/en/latest/deploy.html) 更多信息。
ScrapyD由一些Scrapy開發人員維護。
## 部署到碎片云
[Scrapy Cloud](https://scrapinghub.com/scrapy-cloud) 是基于云的托管服務 [Scrapinghub](https://scrapinghub.com/) 斯普利背后的公司。
ScrapyCloud消除了設置和監視服務器的需要,并提供了一個很好的用戶界面來管理spider和查看被刮走的項目、日志和統計信息。
要將 Spider 部署到碎片云,可以使用 [shub](https://doc.scrapinghub.com/shub.html) 命令行工具。請參閱 [Scrapy Cloud documentation](https://doc.scrapinghub.com/scrapy-cloud.html) 更多信息。
Scrapy Cloud與ScrapyD兼容,您可以根據需要在它們之間進行切換-配置從 `scrapy.cfg` 文件就像 `scrapyd-deploy` .
- 簡介
- 第一步
- Scrapy at a glance
- 安裝指南
- Scrapy 教程
- 實例
- 基本概念
- 命令行工具
- Spider
- 選擇器
- 項目
- 項目加載器
- Scrapy shell
- 項目管道
- Feed 導出
- 請求和響應
- 鏈接提取器
- 設置
- 例外情況
- 內置服務
- Logging
- 統計數據集合
- 發送電子郵件
- 遠程登錄控制臺
- Web服務
- 解決具體問題
- 常見問題
- 調試spiders
- Spider 合約
- 常用做法
- 通用爬蟲
- 使用瀏覽器的開發人員工具進行抓取
- 調試內存泄漏
- 下載和處理文件和圖像
- 部署 Spider
- AutoThrottle 擴展
- Benchmarking
- 作業:暫停和恢復爬行
- 延伸 Scrapy
- 體系結構概述
- 下載器中間件
- Spider 中間件
- 擴展
- 核心API
- 信號
- 條目導出器
- 其余所有
- 發行說明
- 為 Scrapy 貢獻
- 版本控制和API穩定性