# 引入 Spark
Spark 1.2.0 使用 Scala 2.10 寫應用程序,你需要使用一個兼容的 Scala 版本(例如:2.10.X)。
寫 Spark 應用程序時,你需要添加 Spark 的 Maven 依賴,Spark 可以通過 Maven 中心倉庫來獲得:
~~~
groupId = org.apache.spark
artifactId = spark-core_2.10
version = 1.2.0
~~~
另外,如果你希望訪問 HDFS 集群,你需要根據你的 HDFS 版本添加 `hadoop-client` 的依賴。一些公共的 HDFS 版本 tags 在[第三方發行頁面](https://spark.apache.org/docs/latest/hadoop-third-party-distributions.html)中被列出。
~~~
groupId = org.apache.hadoop
artifactId = hadoop-client
version = <your-hdfs-version>
~~~
最后,你需要導入一些 Spark 的類和隱式轉換到你的程序,添加下面的行就可以了:
~~~
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
~~~
- Introduction
- 快速上手
- Spark Shell
- 獨立應用程序
- 開始翻滾吧!
- 編程指南
- 引入 Spark
- 初始化 Spark
- Spark RDDs
- 并行集合
- 外部數據集
- RDD 操作
- RDD持久化
- 共享變量
- 從這里開始
- Spark Streaming
- 一個快速的例子
- 基本概念
- 關聯
- 初始化StreamingContext
- 離散流
- 輸入DStreams
- DStream中的轉換
- DStream的輸出操作
- 緩存或持久化
- Checkpointing
- 部署應用程序
- 監控應用程序
- 性能調優
- 減少批數據的執行時間
- 設置正確的批容量
- 內存調優
- 容錯語義
- Spark SQL
- 開始
- 數據源
- RDDs
- parquet文件
- JSON數據集
- Hive表
- 性能調優
- 其它SQL接口
- 編寫語言集成(Language-Integrated)的相關查詢
- Spark SQL數據類型
- GraphX編程指南
- 開始
- 屬性圖
- 圖操作符
- Pregel API
- 圖構造者
- 頂點和邊RDDs
- 圖算法
- 例子
- 提交應用程序
- 獨立運行Spark
- 在yarn上運行Spark
- Spark配置