# 彈性分布式數據集 (RDDs)
Spark 核心的概念是 *Resilient Distributed Dataset (RDD)*:一個可并行操作的有容錯機制的數據集合。有 2 種方式創建 RDDs:第一種是在你的驅動程序中并行化一個已經存在的集合;另外一種是引用一個外部存儲系統的數據集,例如共享的文件系統,HDFS,HBase或其他 Hadoop 數據格式的數據源。
- [并行集合](#)
- [外部數據集](#)
- [RDD 操作](#)
- [傳遞函數到 Spark](#)
- [使用鍵值對](#)
- [Transformations](#)
- [Actions](#)
- [RDD持久化](#)
- Introduction
- 快速上手
- Spark Shell
- 獨立應用程序
- 開始翻滾吧!
- 編程指南
- 引入 Spark
- 初始化 Spark
- Spark RDDs
- 并行集合
- 外部數據集
- RDD 操作
- RDD持久化
- 共享變量
- 從這里開始
- Spark Streaming
- 一個快速的例子
- 基本概念
- 關聯
- 初始化StreamingContext
- 離散流
- 輸入DStreams
- DStream中的轉換
- DStream的輸出操作
- 緩存或持久化
- Checkpointing
- 部署應用程序
- 監控應用程序
- 性能調優
- 減少批數據的執行時間
- 設置正確的批容量
- 內存調優
- 容錯語義
- Spark SQL
- 開始
- 數據源
- RDDs
- parquet文件
- JSON數據集
- Hive表
- 性能調優
- 其它SQL接口
- 編寫語言集成(Language-Integrated)的相關查詢
- Spark SQL數據類型
- GraphX編程指南
- 開始
- 屬性圖
- 圖操作符
- Pregel API
- 圖構造者
- 頂點和邊RDDs
- 圖算法
- 例子
- 提交應用程序
- 獨立運行Spark
- 在yarn上運行Spark
- Spark配置