# Flink 解釋器
原文鏈接 : [http://zeppelin.apache.org/docs/0.7.2/interpreter/flink.html](http://zeppelin.apache.org/docs/0.7.2/interpreter/flink.html)
譯文鏈接 : [http://www.apache.wiki/pages/viewpage.action?pageId=10030795](http://www.apache.wiki/pages/viewpage.action?pageId=10030795)
貢獻者 : [片刻](/display/~jiangzhonglian) [ApacheCN](/display/~apachecn) [Apache中文網](/display/~apachechina)
## 概述
[Apache Flink](https://flink.apache.org/)是分布式流和批處理數據處理的開源平臺。Flink的核心是流數據流引擎,為數據流上的分布式計算提供數據分發,通信和容錯。Flink還在流式引擎之上構建批處理,覆蓋本機迭代支持,托管內存和程序優化。
## 如何啟動本地Flink群集,來測試解釋器
Zeppelin配有預配置的flink-local解釋器,它在您的機器上以本地模式啟動Flink,因此您不需要安裝任何東西。
## 如何配置解釋器來指向Flink集群
在“解釋器”菜單中,您必須創建一個新的Flink解釋器并提供下一個屬性:
| 屬性 | 值 | 描述 |
| --- | --- | --- |
| host | local | 運行JobManager的主機名。'local'在本地模式下運行flink(默認) |
| port | 6123 | 運行JobManager的端口 |
有關Flink配置的更多信息,可以在[這里](https://ci.apache.org/projects/flink/flink-docs-release-1.0/setup/config.html)找到。
## 如何測試它的工作
您可以在Zeppelin Tutorial文件夾中找到Flink使用的示例,或者嘗試以下字數計數示例,方法是使用Till Rohrmann演示文稿中的[Zeppelin筆記本](https://www.zeppelinhub.com/viewer/notebooks/aHR0cHM6Ly9yYXcuZ2l0aHVidXNlcmNvbnRlbnQuY29tL05GTGFicy96ZXBwZWxpbi1ub3RlYm9va3MvbWFzdGVyL25vdGVib29rcy8yQVFFREs1UEMvbm90ZS5qc29u)?與Apache Flink?for Apache Flink Meetup進行[交互式數據分析](http://www.slideshare.net/tillrohrmann/data-analysis-49806564)。
```
%sh
rm 10.txt.utf-8
wget http://www.gutenberg.org/ebooks/10.txt.utf-8
%flink
case class WordCount(word: String, frequency: Int)
val bible:DataSet[String] = benv.readTextFile("10.txt.utf-8")
val partialCounts: DataSet[WordCount] = bible.flatMap{
line =>
"""\b\w+\b""".r.findAllIn(line).map(word => WordCount(word, 1))
// line.split(" ").map(word => WordCount(word, 1))
}
val wordCounts = partialCounts.groupBy("word").reduce{
(left, right) => WordCount(left.word, left.frequency + right.frequency)
}
val result10 = wordCounts.first(10).collect()
```
- 快速入門
- 什么是Apache Zeppelin?
- 安裝
- 配置
- 探索Apache Zeppelin UI
- 教程
- 動態表單
- 發表你的段落
- 自定義Zeppelin主頁
- 升級Zeppelin版本
- 從源碼編譯
- 使用Flink和Spark Clusters安裝Zeppelin教程
- 解釋器
- 概述
- 解釋器安裝
- 解釋器依賴管理
- 解釋器的模擬用戶
- 解釋員執行Hook(實驗)
- Alluxio 解釋器
- Beam 解釋器
- BigQuery 解釋器
- Cassandra CQL 解釋器
- Elasticsearch 解釋器
- Flink 解釋器
- Geode/Gemfire OQL 解釋器
- HBase Shell 解釋器
- HDFS文件系統 解釋器
- Hive 解釋器
- Ignite 解釋器
- JDBC通用 解釋器
- Kylin 解釋器
- Lens 解釋器
- Livy 解釋器
- Markdown 解釋器
- Pig 解釋器
- PostgreSQL, HAWQ 解釋器
- Python 2&3解釋器
- R 解釋器
- Scalding 解釋器
- Scio 解釋器
- Shell 解釋器
- Spark 解釋器
- 系統顯示
- 系統基本顯示
- 后端Angular API
- 前端Angular API
- 更多
- 筆記本存儲
- REST API
- 解釋器 API
- 筆記本 API
- 筆記本資源 API
- 配置 API
- 憑據 API
- Helium API
- Security ( 安全 )
- Shiro 授權
- 筆記本 授權
- 數據源 授權
- Helium 授權
- Advanced ( 高級 )
- Zeppelin on Vagrant VM ( Zeppelin 在 Vagrant 虛擬機上 )
- Zeppelin on Spark Cluster Mode( Spark 集群模式下的 Zeppelin )
- Zeppelin on CDH ( Zeppelin 在 CDH 上 )
- Contibute ( 貢獻 )
- Writing a New Interpreter ( 寫一個新的解釋器 )
- Writing a new Visualization (Experimental) ( 編寫新的可視化(實驗) )
- Writing a new Application (Experimental) ( 寫一個新的應用程序( 實驗 ) )
- Contributing to Apache Zeppelin ( Code ) ( 向 Apache Zeppelin 貢獻( 代碼 ) )
- Contributing to Apache Zeppelin ( Website ) ( 向 Apache Zeppelin 貢獻(website) )