# 其它SQL接口
Spark SQL也支持直接運行SQL查詢的接口,不用寫任何代碼。
### 運行Thrift JDBC/ODBC服務器
這里實現的Thrift JDBC/ODBC服務器與Hive 0.12中的[HiveServer2](https://cwiki.apache.org/confluence/display/Hive/Setting+Up+HiveServer2)相一致。你可以用在Spark或者Hive 0.12附帶的beeline腳本測試JDBC服務器。
在Spark目錄中,運行下面的命令啟動JDBC/ODBC服務器。
~~~
./sbin/start-thriftserver.sh
~~~
這個腳本接受任何的`bin/spark-submit`命令行參數,加上一個`--hiveconf`參數用來指明Hive屬性。你可以運行`./sbin/start-thriftserver.sh --help`來獲得所有可用選項的完整列表。默認情況下,服務器監聽`localhost:10000`。你可以用環境變量覆蓋這些變量。
~~~
export HIVE_SERVER2_THRIFT_PORT=<listening-port>
export HIVE_SERVER2_THRIFT_BIND_HOST=<listening-host>
./sbin/start-thriftserver.sh \
--master <master-uri> \
...
~~~
或者通過系統變量覆蓋。
~~~
./sbin/start-thriftserver.sh \
--hiveconf hive.server2.thrift.port=<listening-port> \
--hiveconf hive.server2.thrift.bind.host=<listening-host> \
--master <master-uri>
...
~~~
現在你可以用beeline測試Thrift JDBC/ODBC服務器。
~~~
./bin/beeline
~~~
連接到Thrift JDBC/ODBC服務器的方式如下:
~~~
beeline> !connect jdbc:hive2://localhost:10000
~~~
Beeline將會詢問你用戶名和密碼。在非安全的模式,簡單地輸入你機器的用戶名和空密碼就行了。對于安全模式,你可以按照[Beeline文檔](https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients)的說明來執行。
### 運行Spark SQL CLI
Spark SQL CLI是一個便利的工具,它可以在本地運行Hive元存儲服務、執行命令行輸入的查詢。注意,Spark SQL CLI不能與Thrift JDBC服務器通信。
在Spark目錄運行下面的命令可以啟動Spark SQL CLI。
~~~
./bin/spark-sql
~~~
- Introduction
- 快速上手
- Spark Shell
- 獨立應用程序
- 開始翻滾吧!
- 編程指南
- 引入 Spark
- 初始化 Spark
- Spark RDDs
- 并行集合
- 外部數據集
- RDD 操作
- RDD持久化
- 共享變量
- 從這里開始
- Spark Streaming
- 一個快速的例子
- 基本概念
- 關聯
- 初始化StreamingContext
- 離散流
- 輸入DStreams
- DStream中的轉換
- DStream的輸出操作
- 緩存或持久化
- Checkpointing
- 部署應用程序
- 監控應用程序
- 性能調優
- 減少批數據的執行時間
- 設置正確的批容量
- 內存調優
- 容錯語義
- Spark SQL
- 開始
- 數據源
- RDDs
- parquet文件
- JSON數據集
- Hive表
- 性能調優
- 其它SQL接口
- 編寫語言集成(Language-Integrated)的相關查詢
- Spark SQL數據類型
- GraphX編程指南
- 開始
- 屬性圖
- 圖操作符
- Pregel API
- 圖構造者
- 頂點和邊RDDs
- 圖算法
- 例子
- 提交應用程序
- 獨立運行Spark
- 在yarn上運行Spark
- Spark配置