Spark分布式集群的搭建和运行
集群共三臺(tái)CentOS虛擬機(jī),一個(gè)Matser,主機(jī)名為master;三個(gè)Worker,主機(jī)名分別為master、slave03、slave04。前提是Hadoop和Zookeeper已經(jīng)安裝并且開始運(yùn)行。
1.?在master上下載Scala-2.11.0.tgz,復(fù)制到/opt/下面,解壓,在/etc/profile加上語(yǔ)句:
export SCALA_HOME=/opt/scala-2.11.0 export PATH=$PATH:$SCALA_HOME/bin然后運(yùn)行命令:
source /etc/profile在slave03、slave04上也執(zhí)行相同的操作。
2. 在master上下載spark-2.1.0-bin-hadoop2.6,復(fù)制到/opt/下面。解壓,在/etc/profile加上語(yǔ)句:
export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.6 export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin然后運(yùn)行命令:
source /etc/profile3. 編輯${SPARK_HOME}/conf/spark-env.sh文件,增加下面的語(yǔ)句:
# JAVA_HOME export JAVA_HOME=/opt/jdk1.8.0_121 # SCALA_HOME export SCALA_HOME=/opt/scala-2.11.0 # SPARK_HOME export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.6 # Master主機(jī)名 export SPARK_MASTER_HOST=master # Worker的內(nèi)存大小 export SPARK_WORKER_MEMORY=1g # Worker的Cores數(shù)量 export SPARK_WORKER_CORES=1 # SPARK_PID路徑 export SPARK_PID_DIR=$SPARK_HOME/tmp # Hadoop配置文件路徑 export HADOOP_CONF_DIR=/opt/hadoop-2.6.0-cdh5.9.0/etc/hadoop # Spark的Recovery Mode、Zookeeper URL和路徑 export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:12181,slave03:12181,slave04:12181 -Dspark.deploy.zookeeper.dir=/spark"在${SPARK_HOME}/conf/slaves中增加:
matser slave03 slave04這樣就設(shè)置了三個(gè)Worker。
修改文件結(jié)束以后,將${SPARK_HOME}用scp復(fù)制到slave03和slave04。
4. 在master上進(jìn)入${SPARK_HOME}/sbin路徑,運(yùn)行:
./start-master.sh這是啟動(dòng)Master。
再運(yùn)行:
./start-slaves.sh這是啟動(dòng)Worker。
5. 在master上運(yùn)行jps,如果有Master和Worker表明啟動(dòng)成功:
在slave03、slave04上運(yùn)行jps,有Worker表明啟動(dòng)成功:
6. 訪問(wèn)http://master:8081,出現(xiàn)下面的頁(yè)面表明啟動(dòng)成功:
總結(jié)
以上是生活随笔為你收集整理的Spark分布式集群的搭建和运行的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: d3.js 获取当前像素坐标_Cesiu
- 下一篇: React 产品实现 -任务管理工具“氢