主頁(yè) > 知識(shí)庫(kù) > centOS7下Spark安裝配置教程詳解

centOS7下Spark安裝配置教程詳解

熱門標(biāo)簽:電銷機(jī)器人怎么接線路 撫順地圖標(biāo)注 大連400電話如何申請(qǐng) 電銷機(jī)器人價(jià)值 如何分析地圖標(biāo)注 達(dá)亞電銷機(jī)器人官網(wǎng) 外呼系統(tǒng)坐席費(fèi)計(jì)入會(huì)計(jì)哪個(gè)科目 高德地圖標(biāo)注好做嗎 新余高德地圖標(biāo)注怎么修改

環(huán)境說(shuō)明:

        操作系統(tǒng): centos7 64位 3臺(tái)
        centos7-1 192.168.190.130 master
        centos7-2 192.168.190.129 slave1
        centos7-3 192.168.190.131 slave2

    安裝spark需要同時(shí)安裝如下內(nèi)容:

    jdk  scale 

    1.安裝jdk,配置jdk環(huán)境變量

    這里不講如何安裝配置jdk,自行百度。

    2.安裝scala

    下載scala安裝包,https://www.scala-lang.org/download/選擇符合要求的版本進(jìn)行下載,使用客戶端工具上傳到服務(wù)器上。解壓:

 #tar -zxvf scala-2.13.0-M4.tgz
  再次修改/etc/profile文件,添加如下內(nèi)容:
  export SCALA_HOME=$WORK_SPACE/scala-2.13.0-M4
  export PATH=$PATH:$SCALA_HOME/bin
  #source /etc/profile   // 讓其立即生效
  #scala -version      //查看scala是否安裝完成

    3.安裝spark

    spark下載地址:http://spark.apache.org/downloads.html

    說(shuō)明:有不同的版本包下載,選則你需要的下載安裝即可

    Source code: Spark 源碼,需要編譯才能使用,另外 Scala 2.11 需要使用源碼編譯才可使用
    Pre-build with user-provided Hadoop: “Hadoop free” 版,可應(yīng)用到任意 Hadoop 版本
    Pre-build for Hadoop 2.7 and later: 基于 Hadoop 2.7 的預(yù)先編譯版,需要與本機(jī)安裝的 Hadoop 版本對(duì)應(yīng)??蛇x的還有 Hadoop 2.6。我這里因?yàn)檠b的hadoop是3.1.0,所以直接安裝for hadoop 2.7 and later的版本。

            注:hadoop的安裝請(qǐng)查看我的上一篇博客,不在重復(fù)描述。

centOS7下Spark安裝配置
#mkdir spark 
#cd /usr/spark
#tar -zxvf spark-2.3.1-bin-hadoop2.7.tgz
#vim /etc/profile
#添加spark的環(huán)境變量,加如PATH下、export出來(lái)
#source /etc/profile
#進(jìn)入conf目錄下,把spark-env.sh.template拷貝一份改名spark-env.sh
#cd /usr/spark/spark-2.3.1-bin-hadoop2.7/conf
#cp spark-env.sh.template spark-env.sh
#vim spark-env.sh
export SCALA_HOME=/usr/scala/scala-2.13.0-M4
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.171-8.b10.el7_5.x86_64
export HADOOP_HOME=/usr/hadoop/hadoop-3.1.0
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_HOME=/usr/spark/spark-2.3.1-bin-hadoop2.7
export SPARK_MASTER_IP=master
export SPARK_EXECUTOR_MEMORY=1G
#進(jìn)入conf目錄下,把slaves.template拷貝一份改名為slaves
#cd /usr/spark/spark-2.3.1-bin-hadoop2.7/conf
#cp slaves.template slaves
#vim slaves
#添加節(jié)點(diǎn)域名到slaves文件中
#master   //該域名為centos7-1的域名
#slave1   //該域名為centos7-2的域名
#slave2   //該域名為centos7-3的域名

啟動(dòng)spark

#啟動(dòng)spark之前先要把hadoop節(jié)點(diǎn)啟動(dòng)起來(lái)
#cd /usr/hadoop/hadoop-3.1.0/
#sbin/start-all.sh
#jps //檢查啟動(dòng)的線程是否已經(jīng)把hadoop啟動(dòng)起來(lái)了
#cd /usr/spark/spark-2.3.1-bin-hadoop2.7
#sbin/start-all.sh
備注:在slave1\slave2節(jié)點(diǎn)上也必須按照上面的方式安裝spark,或者直接拷貝一份到slave1,slave2節(jié)點(diǎn)上
#scp -r /usr/spark root@slave1ip:/usr/spark

啟動(dòng)信息如下:

starting org.apache.spark.deploy.master.Master, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-master.out
slave2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave2.com.cn.out
slave1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave1.com.cn.out
master: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-master.out

測(cè)試Spark集群:

用瀏覽器打開(kāi)master節(jié)點(diǎn)上的spark集群url:http://192.168.190.130:8080/

總結(jié)

以上所述是小編給大家介紹的centOS7下Spark安裝配置教程詳解,希望對(duì)大家有所幫助,如果大家有任何疑問(wèn)歡迎給我留言,小編會(huì)及時(shí)回復(fù)大家的!

標(biāo)簽:遼源 新鄉(xiāng) 衡水 楊凌 湖南 黃石 海東 南通

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《centOS7下Spark安裝配置教程詳解》,本文關(guān)鍵詞  centOS7,下,Spark,安裝,配置,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《centOS7下Spark安裝配置教程詳解》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于centOS7下Spark安裝配置教程詳解的相關(guān)信息資訊供網(wǎng)民參考!
  • 企业400电话

    智能AI客服机器人
    15000

    在线订购

    合计11份范本:公司章程+合伙协议+出资协议+合作协议+股权转让协议+增资扩股协议+股权激励+股东会决议+董事会决议

    推薦文章