1. <ul id="0c1fb"></ul>

      <noscript id="0c1fb"><video id="0c1fb"></video></noscript>
      <noscript id="0c1fb"><listing id="0c1fb"><thead id="0c1fb"></thead></listing></noscript>

      99热在线精品一区二区三区_国产伦精品一区二区三区女破破_亚洲一区二区三区无码_精品国产欧美日韩另类一区

      RELATEED CONSULTING
      相關咨詢
      選擇下列產品馬上在線溝通
      服務時間:8:30-17:00
      你可能遇到了下面的問題
      關閉右側工具欄

      新聞中心

      這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
      Spark的安裝和基礎編程-創(chuàng)新互聯(lián)

      Linux系統(tǒng):Ubuntu 16.04

      成都創(chuàng)新互聯(lián)主要為客戶提供服務項目涵蓋了網(wǎng)頁視覺設計、VI標志設計、全網(wǎng)整合營銷推廣、網(wǎng)站程序開發(fā)、HTML5響應式成都網(wǎng)站建設手機網(wǎng)站制作、微商城、網(wǎng)站托管及成都網(wǎng)站維護公司、WEB系統(tǒng)開發(fā)、域名注冊、國內外服務器租用、視頻、平面設計、SEO優(yōu)化排名。設計、前端、后端三個建站步驟的完善服務體系。一人跟蹤測試的建站服務標準。已經(jīng)為人造霧行業(yè)客戶提供了網(wǎng)站設計服務。

      Hadoop: 2.7.1

      JDK: 1.8

      Spark: 2.4.3

      一.下載安裝文件

      http://spark.apache.org/downloads.html

      https://archive.apache.org/dist/spark/

      hadoop@dblab:/usr/local$ sudo wget http://mirror.bit.edu.cn/apache/spark/spark-2.4.3/spark-2.4.3-bin-hadoop2.7.tgz

      hadoop@dblab:/usr/local$ sudo tar -zxf spark-2.4.3-bin-hadoop2.7.tgz -C spark

      hadoop@dblab:/usr/local$ sudo chown -R hadoop:hadoop spark/

      二.配置相關文件

      hadoop@dblab:/usr/local/spark$ ./conf/spark-env.sh.template? ./conf/spark-env.sh

      export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

      #驗證Spark是否安裝成功

      hadoop@dblab:/usr/local/spark$ bin/run-example SparkPi

      Pi is roughly 3.139035695178476? ?

      三.啟動Spark Shell

      hadoop@dblab:/usr/local/spark$ ./bin/spark-shell?? ??

      Welcome to

      ? ____? ? ? ? ? ? ? __

      ?/ __/__? ___ _____/ /__

      _\ \/ _ \/ _ `/ __/? '_/

      /___/ .__/\_,_/_/ /_/\_\? ?version 2.1.0

      ? /_/

      Using Scala version 2.11.8 (OpenJDK 64-Bit Server VM, Java 1.8.0_212)

      Type in expressions to have them evaluated.

      Type :help for more information.

      scala>?

      scala> 8*2+5

      res0: Int = 21

      四.讀取文件

      1.讀取本地文件

      hadoop@dblab:/usr/local/hadoop$ ./sbin/start-dfs.sh? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

      scala> val textFile=sc.textFile("file:///usr/local/spark/README.md")

      textFile: org.apache.spark.rdd.RDD[String] = file:///usr/local/spark/README.md MapPartitionsRDD[1] at textFile at :24

      scala> textFile.first()

      res0: String = # Apache Spark

      2.讀取HDFS文件

      hadoop@dblab:/usr/local/hadoop$ ./bin/hdfs dfs -put /usr/local/spark/README.md .

      hadoop@dblab:/usr/local/hadoop$ ./bin/hdfs dfs -cat README.md

      scala> val textFile=sc.textFile("hdfs://localhost:9000/user/hadoop/README.md")

      textFile: org.apache.spark.rdd.RDD[String] = hdfs://localhost:9000/user/hadoop/README.md MapPartitionsRDD[3] at textFile at :24

      scala> textFile.first()

      res1: String = # Apache Spark

      scala> :quit

      另外有需要云服務器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。


      網(wǎng)站題目:Spark的安裝和基礎編程-創(chuàng)新互聯(lián)
      路徑分享:http://www.ef60e0e.cn/article/dggsej.html
      99热在线精品一区二区三区_国产伦精品一区二区三区女破破_亚洲一区二区三区无码_精品国产欧美日韩另类一区
      1. <ul id="0c1fb"></ul>

        <noscript id="0c1fb"><video id="0c1fb"></video></noscript>
        <noscript id="0c1fb"><listing id="0c1fb"><thead id="0c1fb"></thead></listing></noscript>

        大英县| 普兰县| 信宜市| 阿拉尔市| 濮阳市| 玉田县| 云安县| 祁东县| 桂林市| 科尔| 中江县| 陇西县| 云和县| 南江县| 金沙县| 鱼台县| 福海县| 大港区| 珠海市| 昌江| 仙桃市| 长沙县| 石林| 吉木萨尔县| 鸡泽县| 澄江县| 舞钢市| 运城市| 嘉义县| 镇康县| 淮滨县| 巴塘县| 翁牛特旗| 航空| 任丘市| 洱源县| 珠海市| 阿尔山市| 托里县| 体育| 文成县|