<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                合規國際互聯網加速 OSASE為企業客戶提供高速穩定SD-WAN國際加速解決方案。 廣告
                # Zeppelin on Spark Cluster Mode( Spark 集群模式下的 Zeppelin ) 原文鏈接 : [http://zeppelin.apache.org/docs/0.7.2/install/spark_cluster_mode.html](http://zeppelin.apache.org/docs/0.7.2/install/spark_cluster_mode.html) 譯文鏈接 : [http://www.apache.wiki/pages/viewpage.action?pageId=10031041](http://www.apache.wiki/pages/viewpage.action?pageId=10031041) 貢獻者 : [小瑤](/display/~chenyao) [ApacheCN](/display/~apachecn) [Apache中文網](/display/~apachechina) ## 概述 到目前為止,**Apache Spark** 已經支持三種集群管理器類型(**Standalone**,**Apache Mesos** 和 **Hadoop YARN** )。本文檔將指導您如何使用 **Docker** 腳本使用 **Apache Zeppelin** 在3種類型的 **Spark** 集群管理器上構建和配置環境。所以首先在機器上安裝 **docker** 。 ## Spark standalone mode ( Spark獨立模式?) Spark standalone 是Spark附帶的簡單集群管理器,可以輕松設置集群。您可以通過以下步驟簡單地設置 Spark獨立環境。 注意 由于 **Apache Zeppelin** 和 **Spark** 為其 **Web UI** 使用相同的 **8080** 端口,因此您可能需要在 **conf / zeppelin-site.xml** 中更改 **zeppelin.server.port** 。 ### 1.Build Docker file ( 構建 Docker 文件?) 您可以在腳本 **/ docker / spark-cluster-managers** 下找到 **docker** 腳本文件。 ``` cd $ZEPPELIN_HOME/scripts/docker/spark-cluster-managers/spark_standalone docker build -t "spark_standalone" . ``` ### 2.Run docker ( 運行 docker ) ``` docker run -it \ -p 8080:8080 \ -p 7077:7077 \ -p 8888:8888 \ -p 8081:8081 \ -h sparkmaster \ --name spark_standalone \ spark_standalone bash; ``` 請注意,在這里運行 **docker** 容器的 **sparkmaster** 主機名應該在 **/ etc / hosts** 中定義。 ### 3.Configure Spark interpreter in Zeppelin ( 在 Zeppelin 中配置 Spark 解釋器 ) 將 **Spark master** 設置為?**spark://&lt;hostname&gt;:7077** 在 **Zeppelin** 的解釋器設置頁面上。 ![](https://img.kancloud.cn/de/86/de8699e22970af8baad80ad1d85daa5d_566x275.jpg) ### 4.Run Zeppelin with Spark interpreter ( 用 Spark 解釋器運行 Zeppelin?) 在 **Zeppelin** 中運行帶有 **Spark** 解釋器的單個段落后,瀏覽 **https:// &lt;hostname&gt;:8080**,并檢查 **Spark** 集群是否運行正常。 ![](https://img.kancloud.cn/80/58/80589aeaa90c59ea81b6a67f4b15fc4d_566x299.jpg) 您還可以通過以下命令簡單地驗證 **Spark** 在 **Docker** 中運行良好。 ``` ps -ef | grep spark ``` ## Spark on YARN mode ( Spark 在 YARN 模式下?) 您可以通過以下步驟簡單地設置** [Spark on YARN](http://spark.apache.org/docs/latest/running-on-yarn.html) docker** 環境。 注意 由于 **Apache Zeppelin** 和 **Spark** 為其 **Web UI** 使用相同的 **8080** 端口,因此您可能需要在 **conf / zeppelin-site.xml** 中更改 **zeppelin.server.port** 。 ### 1.Build Docker file ( 構建Docker文件?) 您可以在腳本 **/ docker / spark-cluster-managers** 下找到 **docker** 腳本文件。 ``` cd $ZEPPELIN_HOME/scripts/docker/spark-cluster-managers/spark_yarn_cluster docker build -t "spark_yarn" . ``` ### 2.Run docker ( 運行 docker ) ``` docker run -it \ -p 5000:5000 \ -p 9000:9000 \ -p 9001:9001 \ -p 8088:8088 \ -p 8042:8042 \ -p 8030:8030 \ -p 8031:8031 \ -p 8032:8032 \ -p 8033:8033 \ -p 8080:8080 \ -p 7077:7077 \ -p 8888:8888 \ -p 8081:8081 \ -p 50010:50010 \ -p 50075:50075 \ -p 50020:50020 \ -p 50070:50070 \ --name spark_yarn \ -h sparkmaster \ spark_yarn bash; ``` 請注意,在這里運行 **docker** 容器的 **sparkmaster** 主機名應該在 **/ etc / hosts** 中定義。 ### 3.Verify running Spark on YARN ( 驗證在YARN上運行Spark?) 您可以通過以下命令簡單地驗證 **Spark** 和 **YARN** 的進程在 **Docker** 中運行良好。 ``` ps -ef ``` 您還可以在 **http:// &lt;hostname&gt;:50070 /** ,**YARN on http:// &lt;hostname&gt;:8088 / cluster** 和 **Spark on http:// &lt;hostname&gt;:8080 /** 上查看 **HDFS** 的每個應用程序 **Web UI** 。 ### 4.Configure Spark interpreter in Zeppelin ( 在 Zeppelin 中配置 Spark 解釋器?) 將以下配置設置到 **conf / zeppelin-env.sh** 。 ``` export MASTER=yarn-client export HADOOP_CONF_DIR=[your_hadoop_conf_path] export SPARK_HOME=[your_spark_home_path] ``` **HADOOP_CONF_DIR**( **Hadoop** 配置路徑)在 **/ scripts / docker / spark-cluster-managers / spark_yarn_cluster / hdfs_conf** 中定義。 不要忘記在 **Zeppelin Interpreters** 設置頁面中將 **Spark master** 設置為 **yarn-client** ,如下所示。 ![](https://img.kancloud.cn/66/ce/66cebca3d6ea1e2304c0fd33b3ccfab3_566x304.jpg) ### 5.Run Zeppelin with Spark interpreter ( 使用Spark解釋器運行Zeppelin?) 在 **Zeppelin** 中使用 **Spark** 解釋器運行單個段落后,瀏覽 h**ttp:// &lt;hostname&gt;:8088 / cluster / apps** 并檢查 **Zeppelin** 應用程序運行是否正常。 ![](https://img.kancloud.cn/6f/32/6f324aab68fee449e5d1e922ba09669c_566x206.jpg) ## Spark on Mesos mode ( Spark 在 Mesos 模式?) 你可以通過以下步驟簡單地設置 **[Spark on Mesos](http://spark.apache.org/docs/latest/running-on-mesos.html)** 環境。 ### 1.Build Docker file ( 構建 docker 文件 ) ``` cd $ZEPPELIN_HOME/scripts/docker/spark-cluster-managers/spark_mesos docker build -t "spark_mesos" . ``` ### 2.Run docker ( 運行 docker ) ``` docker run --net=host -it \ -p 8080:8080 \ -p 7077:7077 \ -p 8888:8888 \ -p 8081:8081 \ -p 8082:8082 \ -p 5050:5050 \ -p 5051:5051 \ -p 4040:4040 \ -h sparkmaster \ --name spark_mesos \ spark_mesos bash; ``` 請注意,在這里運行 **docker** 容器的 **sparkmaster** 主機名應該在 **/ etc / hosts** 中定義。 ### 3.Verify running Spark on Mesos ( 驗證在Mesos上運行Spark?) 您可以通過以下命令簡單地驗證 **Spark** 和 **Mesos** 的進程在 **Docker** 中運行良好。 ``` ps -ef ``` 您還可以在 **http:// &lt;hostname&gt;:5050 / cluster** 和 **Spark on http:// &lt;hostname&gt;:8080 /** 上檢查 **Mesos** 的每個應用程序 **Web UI** 。 ### 4.Configure Spark interpreter in Zeppelin ( 在Zeppelin中配置Spark解釋器?) ``` export MASTER=mesos://127.0.1.1:5050 export MESOS_NATIVE_JAVA_LIBRARY=[PATH OF libmesos.so] export SPARK_HOME=[PATH OF SPARK HOME] ``` 不要忘記將 **Spark master** 設置為 **mesos://127.0.1.1:5050** 在 **Zeppelin Interpreters** 設置頁面中,如下所示。 ![](https://img.kancloud.cn/57/4b/574bd08f3edf583c106f56f5668ec8f6_566x344.jpg) ### 5.Run Zeppelin with Spark interpreter ( 使用Spark解釋器運行Zeppelin?) 在 **Zeppelin** 中使用 **Spark** 解釋器運行一個段落后,瀏覽**http://&lt;hostname&gt;:5050/#/frameworks**?,并檢查 **Zeppelin** 應用程序運行是否正常。 ![](https://img.kancloud.cn/60/7c/607c9e80f1e226b3c1b759583a51ed9d_566x276.jpg) ### Troubleshooting for Spark on Mesos ( Spark在Mesos上的故障排除?) * 如果?**hostname?**有問題,請在執行 **dockerrun** 時使用 **--add-host** 選項 ``` ## use `--add-host=moby:127.0.0.1` option to resolve ## since docker container couldn't resolve `moby` : java.net.UnknownHostException: moby: moby: Name or service not known at java.net.InetAddress.getLocalHost(InetAddress.java:1496) at org.apache.spark.util.Utils$.findLocalInetAddress(Utils.scala:789) at org.apache.spark.util.Utils$.org$apache$spark$util$Utils$$localIpAddress$lzycompute(Utils.scala:782) at org.apache.spark.util.Utils$.org$apache$spark$util$Utils$$localIpAddress(Utils.scala:782) ``` * 如果您與 **mesos master** 有問題,請嘗試使用 **mesos://127.0.0.1** 而不是 **mesos://127.0.1.1**? ``` I0103 20:17:22.329269 340 sched.cpp:330] New master detected at master@127.0.1.1:5050 I0103 20:17:22.330749 340 sched.cpp:341] No credentials provided. Attempting to register without authentication W0103 20:17:22.333531 340 sched.cpp:736] Ignoring framework registered message because it was sentfrom 'master@127.0.0.1:5050' instead of the leading master 'master@127.0.1.1:5050' W0103 20:17:24.040252 339 sched.cpp:736] Ignoring framework registered message because it was sentfrom 'master@127.0.0.1:5050' instead of the leading master 'master@127.0.1.1:5050' W0103 20:17:26.150250 339 sched.cpp:736] Ignoring framework registered message because it was sentfrom 'master@127.0.0.1:5050' instead of the leading master 'master@127.0.1.1:5050' W0103 20:17:26.737604 339 sched.cpp:736] Ignoring framework registered message because it was sentfrom 'master@127.0.0.1:5050' instead of the leading master 'master@127.0.1.1:5050' W0103 20:17:35.241714 336 sched.cpp:736] Ignoring framework registered message because it was sentfrom 'master@127.0.0.1:5050' instead of the leading master 'master@127.0.1.1:5050' ```
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看