1. <ul id="0c1fb"></ul>

      <noscript id="0c1fb"><video id="0c1fb"></video></noscript>
      <noscript id="0c1fb"><listing id="0c1fb"><thead id="0c1fb"></thead></listing></noscript>

      99热在线精品一区二区三区_国产伦精品一区二区三区女破破_亚洲一区二区三区无码_精品国产欧美日韩另类一区

      RELATEED CONSULTING
      相關(guān)咨詢
      選擇下列產(chǎn)品馬上在線溝通
      服務(wù)時(shí)間:8:30-17:00
      你可能遇到了下面的問題
      關(guān)閉右側(cè)工具欄

      新聞中心

      這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
      docker中spark+scala安裝配置

      一、scala安裝
      首先下載scala壓縮包

      貴陽ssl適用于網(wǎng)站、小程序/APP、API接口等需要進(jìn)行數(shù)據(jù)傳輸應(yīng)用場(chǎng)景,ssl證書未來市場(chǎng)廣闊!成為創(chuàng)新互聯(lián)公司的ssl證書銷售渠道,可以享受市場(chǎng)價(jià)格4-6折優(yōu)惠!如果有意向歡迎電話聯(lián)系或者加微信:13518219792(備注:SSL證書合作)期待與您的合作!

      wget https://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz

      解壓

      tar -zxvf scala-2.11.7.tgz

      移動(dòng)目錄

      mv scala-2.11.7 /usr/local/

      改名

      cd /usr/local/
      mv scala-2.11.7 scala

      配置環(huán)境變量

      vim /etc/profile
      export SCALA_HOME=/usr/local/scala
      export PATH=$PATH:$SCALA_HOME/bin

      docker中spark+scala安裝配置

      環(huán)境變量生效

      source /etc/profile

      查看scala版本

      scala -version

      分發(fā)scala到其他主機(jī)

      scp -r /usr/local/scala/ root@Master:/usr/local/
      scp -r /usr/local/scala/ root@Slave2:/usr/local/

      二、spark安裝
      復(fù)制spark壓縮包 到容器中

      docker cp /root/spark-2.1.2-bin-hadoop2.4.tgz b0c77:/

      docker中spark+scala安裝配置

      查看并解壓

      docker中spark+scala安裝配置
      在profile中添加spark環(huán)境變量
      docker中spark+scala安裝配置
      生效環(huán)境變量

      source /etc/profile

      編輯spark-env.sh

      vim /usr/local/spark/conf/spark-env.sh

      docker中spark+scala安裝配置

      • JAVA_HOME:Java安裝目錄
      • SCALA_HOME:Scala安裝目錄
      • HADOOP_HOME:hadoop安裝目錄
      • HADOOP_CONF_DIR:hadoop集群的配置文件的目錄
      • SPARK_MASTER_IP:spark集群的Master節(jié)點(diǎn)的ip地址
      • SPARK_WORKER_MEMORY:每個(gè)worker節(jié)點(diǎn)能夠最大分配給exectors的內(nèi)存大小
      • SPARK_WORKER_CORES:每個(gè)worker節(jié)點(diǎn)所占有的CPU核數(shù)目
      • SPARK_WORKER_INSTANCES:每臺(tái)機(jī)器上開啟的worker節(jié)點(diǎn)的數(shù)目
        修改slaves文件

      cp slaves.template slaves

      docker中spark+scala安裝配置

      vi conf/slaves

      docker中spark+scala安裝配置

      scp -r /usr/local/spark/ Master:/usr/local

      docker中spark+scala安裝配置

      scp -r /usr/local/spark/ Slave2:/usr/local

      docker中spark+scala安裝配置
      同時(shí)其他兩個(gè)節(jié)點(diǎn)也要修改 /etc/profile
      啟動(dòng)spark

      ./sbin/start-all.sh

      docker中spark+scala安裝配置
      成功打開之后使用jps在Master、Slave1和Slave2節(jié)點(diǎn)上分別可以看到新開啟的Master和Worker進(jìn)程。
      docker中spark+scala安裝配置
      docker中spark+scala安裝配置
      docker中spark+scala安裝配置
      成功打開Spark集群之后可以進(jìn)入Spark的WebUI界面,可以通過
      SparkMaster_IP:8080
      端口映射:

      iptables -t nat -A DOCKER -p tcp --dport 8080 -j DNAT --to-destination 172.17.0.2:8080

      docker中spark+scala安裝配置

      此時(shí)我們可以通過映射到宿主機(jī)的端口訪問,可見有兩個(gè)正在運(yùn)行的Worker節(jié)點(diǎn)。
      docker中spark+scala安裝配置
      打開Spark-shell
      使用

      spark-shell

      docker中spark+scala安裝配置

      推出spark-shell的命令是“:quit”
      因?yàn)閟hell在運(yùn)行,我們也可以通過
      SparkMaster_IP:4040(172.17.0.2:4040)

      訪問WebUI查看當(dāng)前執(zhí)行的任務(wù)。
      先進(jìn)行端口映射:

      iptables -t nat -A DOCKER -p tcp --dport 4040 -j DNAT --to-destination 172.17.0.2:4040

      docker中spark+scala安裝配置
      docker中spark+scala安裝配置


      網(wǎng)站名稱:docker中spark+scala安裝配置
      網(wǎng)站路徑:http://www.ef60e0e.cn/article/jhisps.html
      99热在线精品一区二区三区_国产伦精品一区二区三区女破破_亚洲一区二区三区无码_精品国产欧美日韩另类一区
      1. <ul id="0c1fb"></ul>

        <noscript id="0c1fb"><video id="0c1fb"></video></noscript>
        <noscript id="0c1fb"><listing id="0c1fb"><thead id="0c1fb"></thead></listing></noscript>

        常山县| 迁西县| 鹿泉市| 阜阳市| 丰都县| 张家口市| 夏津县| 永修县| 广西| 汕尾市| 阳谷县| 东安县| 芮城县| 保山市| 三穗县| 北宁市| 剑阁县| 额济纳旗| 仁化县| 稻城县| 五家渠市| 新民市| 宕昌县| 同心县| 菏泽市| 济宁市| 读书| 永嘉县| 基隆市| 泰顺县| 柳河县| 长乐市| 木兰县| 乌兰浩特市| 高尔夫| 潞西市| 恩施市| 松桃| 嵊泗县| 南京市| 灵宝市|