# Spark SQL
Spark SQL允許Spark執行用SQL, HiveQL或者Scala表示的關系查詢。這個模塊的核心是一個新類型的RDD-[SchemaRDD](http://spark.apache.org/docs/latest/api/scala/index.html#org.apache.spark.sql.SchemaRDD)。
SchemaRDDs由[行](http://spark.apache.org/docs/latest/api/scala/index.html#org.apache.spark.sql.package@Row:org.apache.spark.sql.catalyst.expressions.Row.type)對象組成,行對象擁有一個模式(scheme)
來描述行中每一列的數據類型。SchemaRDD與關系型數據庫中的表很相似。可以通過存在的RDD、一個[Parquet](http://parquet.io/)文件、一個JSON數據庫或者對存儲在[Apache Hive](http://hive.apache.org/)中的數據執行HiveSQL查詢中創建。
本章的所有例子都利用了Spark分布式系統中的樣本數據,可以在`spark-shell`中運行它們。
* [開始](getting-started.md)
* [數據源](data-sources/README.md)
* [RDDs](data-sources/rdds.md)
* [parquet文件](data-sources/parquet-files.md)
* [JSON數據集](data-sources/jSON-datasets.md)
* [Hive表](data-sources/hive-tables.md)
* [性能調優](performance-tuning.md)
* [其它SQL接口](other-sql-interfaces.md)
* [編寫語言集成(Language-Integrated)的相關查詢](writing-language-integrated-relational-queries.md)
* [Spark SQL數據類型](spark-sql-dataType-reference.md)
- Introduction
- 快速上手
- Spark Shell
- 獨立應用程序
- 開始翻滾吧!
- RDD編程基礎
- 基礎介紹
- 外部數據集
- RDD 操作
- 轉換Transformations
- map與flatMap解析
- 動作Actions
- RDD持久化
- RDD容錯機制
- 傳遞函數到 Spark
- 使用鍵值對
- RDD依賴關系與DAG
- 共享變量
- Spark Streaming
- 一個快速的例子
- 基本概念
- 關聯
- 初始化StreamingContext
- 離散流
- 輸入DStreams
- DStream中的轉換
- DStream的輸出操作
- 緩存或持久化
- Checkpointing
- 部署應用程序
- 監控應用程序
- 性能調優
- 減少批數據的執行時間
- 設置正確的批容量
- 內存調優
- 容錯語義
- Spark SQL
- 概述
- SparkSQLvsHiveSQL
- 數據源
- RDDs
- parquet文件
- JSON數據集
- Hive表
- 數據源例子
- join操作
- 聚合操作
- 性能調優
- 其他
- Spark SQL數據類型
- 其它SQL接口
- 編寫語言集成(Language-Integrated)的相關查詢
- GraphX編程指南
- 開始
- 屬性圖
- 圖操作符
- Pregel API
- 圖構造者
- 部署
- 頂點和邊RDDs
- 圖算法
- 例子
- 更多文檔
- 提交應用程序
- 獨立運行Spark
- 在yarn上運行Spark
- Spark配置
- RDD 持久化