日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪(fǎng)問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) >

Spark- Linux下安装Spark

發(fā)布時(shí)間:2023/12/10 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Spark- Linux下安装Spark 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

?Spark- Linux下安裝Spark

前期部署

1.JDK安裝,配置PATH

可以參考之前配置hadoop等配置

2.下載spark-1.6.1-bin-hadoop2.6.tgz,并上傳到服務(wù)器解壓

[root@srv01 ~]# tar -xvzf spark-1.6.1-hadoop2.6.tgz /usr/spark-1.6.1-hadoop2.6

3.在?/usr?下創(chuàng)建軟鏈接到目標(biāo)文件夾

[root@srv01 usr]# ln -s spark-1.6.1-bin-hadoop2.6 spark

4.修改配置文件,目標(biāo)目錄?/usr/spark/conf/?

[root@srv01 conf]# ls docker.properties.template log4j.properties.template slaves.template spark-env.sh.template fairscheduler.xml.template metrics.properties.template spark-defaults.conf.template
這里需要把spark-env.sh.template改名為spark-env.sh export JAVA_HOME=/usr/jdk #這個(gè)是單機(jī)版的配置,不能實(shí)現(xiàn)高可用 export SPARK_MASTER_IP=srv01 export SPARK_MASTER_PORT=7077

再配置slaves ,都是我的集群的機(jī)器的hostname

srv01 srv02 srv03

5.分發(fā)到集群各個(gè)機(jī)器上,再軟鏈接一下,保持集群一致性,參考step-3

[root@srv01 usr]# scp -r spark-1.6.1-bin-hadoop2.6 srv02:/usr
[root@srv01 usr]# scp -r spark-1.6.1-bin-hadoop2.6 srv03:/usr

6.Spark-sell

配置好,啟動(dòng)spark-shell,注意記得先關(guān)閉防火墻(也可以將spark寫(xiě)進(jìn)PATH中)

輸入?sc?,如果顯示下面的,表示安裝正常

scala> sc res0: org.apache.spark.SparkContext = org.apache.spark.SparkContext@18811c42

7.測(cè)試單詞計(jì)算案例

scala> sc.textFile("/root/file.log").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect.toBuffer
res7: scala.collection.mutable.Buffer[(String, Int)]
= ArrayBuffer((scala,2), (spark,2), (hive,1), (hadoop,2), (mapreduce,1), (zookeeper,1), (hello,1), (redis,1), (world,1))

?8.啟動(dòng)Spark集群模式(前提是3臺(tái)機(jī)器的spark配置一樣,配置文件spark-env.sh和slaves文件保持一致)

進(jìn)入Spark的sbin目錄下啟動(dòng) ./start-all.sh

這個(gè)腳本文件在sbin目錄

通過(guò)Jps查看角色

[root@srv01 conf]# jps

13079 Master

13148 Worker? //這個(gè)worker的啟動(dòng)通過(guò)配置文件slaves

13234 Jps

下面是我的slaves的配置文件

srv01 srv02 srv03

slaves配置的決定了在哪幾臺(tái)機(jī)器上啟動(dòng)worker

下面的配置文件決定了在哪臺(tái)機(jī)器上啟動(dòng)Master

啟動(dòng)Spark集群(如果有使用hdfs的場(chǎng)景,需要把hadoop的conf目錄下的core-site.xml和dhfs-site.xml拷貝到spark的conf目錄下,才能使用高可用的hdfs url)

?

?

然后在通過(guò)網(wǎng)頁(yè)查看spark的相關(guān)信息:

http://192.168.1.88:8080/

執(zhí)行第一個(gè)Spark程序

指定運(yùn)行程序的主機(jī)名(Master)

?

./spark-submit --class org.apache.spark.examples.SparkPi --master spark://srv01:7077 --executor-memory 1G --total-executor-cores 2 /usr/spark-1.6.1-bin-hadoop2.6/lib/spark-examples-1.6.1-hadoop2.6.0.jar 500

?

?

?

?

IDEA上面編碼使用集群上的spark運(yùn)行程序

package com.rz.spark.baseimport org.apache.log4j.{Level, Logger} import org.apache.spark.{SparkConf, SparkContext}object transactionApp {def main(args: Array[String]): Unit = {Logger.getLogger("org.apache.spark").setLevel(Level.OFF)val conf = new SparkConf().setAppName(this.getClass.getSimpleName).setMaster("spark://hdp:7077")val sc = new SparkContext(conf)val rdd1 = sc.parallelize(Array(1,2,3,4,5,6,7,8,9))println(rdd1.partitions.length)sc.stop()} }

  

?

轉(zhuǎn)載于:https://www.cnblogs.com/RzCong/p/7447638.html

總結(jié)

以上是生活随笔為你收集整理的Spark- Linux下安装Spark的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。