日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

spark-1.6.0-cdh5.15.1环境搭建:Local模式和StandAlone

發(fā)布時間:2024/9/16 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 spark-1.6.0-cdh5.15.1环境搭建:Local模式和StandAlone 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

下載spark

從http://archive.cloudera.com/cdh5/cdh/5/下載spark-1.6.0-cdh5.15.1,因為我之前使用的hadoop版本都是cdh5.15.1,所以版本要保持一致。
下載完成之后解壓。

修改配置

在conf下面修改spark-env.sh,添加內容:
export SPARK_DIST_CLASSPATH=$(/home/iie4bu/app/hadoop-2.6.0-cdh5.15.1/bin/hadoop classpath)

配置環(huán)境變量

修改~/.bashrc文件:

# JAVA_HOME JAVA_HOME=/home/iie4bu/app/jdk1.8.0_101 # HADOOP_HOME HADOOP_HOME=/home/iie4bu/app/hadoop-2.6.0-cdh5.15.1 # HIVE_HOME HIVE_HOME=/home/iie4bu/app/hive-1.1.0-cdh5.15.1 # SPARK_HOME SPARK_HOME=/home/iie4bu/app/spark-1.6.0-cdh5.15.1 PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$SPARK_HOME/bin:$PATH

添加依賴

目前spark中缺少一些lib包,因此先獲取jar包,pom.xml內容如下:

<dependency><groupId>com.fasterxml.jackson.core</groupId><artifactId>jackson-databind</artifactId><version>2.4.4</version></dependency><dependency><groupId>com.fasterxml.jackson.core</groupId><artifactId>jackson-core</artifactId><version>2.4.4</version></dependency><dependency><groupId>com.fasterxml.jackson.core</groupId><artifactId>jackson-annotations</artifactId><version>2.4.4</version></dependency><dependency><groupId>com.twitter</groupId><artifactId>parquet-hadoop</artifactId><version>1.4.3</version></dependency>

一般情況下把這4個jar包,導入到$HADOOP_HOME/share/hadoop/common路徑下。

測試運行Local模式

  • master指定運行模式,local表示本地模式 [2]表示可以兩個線程并行運行。

瀏覽器中輸入ip:4040

表示配置成功。

測試運行Standalone模式

1個Master+多個Worker

修改配置文件

修改spark-1.6.0-cdh5.15.1/conf/spark-env.sh內容如下:

SPARK_MASTER_IP=manager SPARK_WORKER_CORES=2 SPARK_WORKER_MEMORY=2g SPARK_WORKER_INSTANCES=1

修改spark-1.6.0-cdh5.15.1/conf/slaves,內容如下:

manager

修改spark-1.6.0-cdh5.15.1/sbin/spark-config.sh,添加JAVA環(huán)境變量:

export JAVA_HOME=/home/iie4bu/app/jdk1.8.0_101

在sbin下運行命令:./start-all.sh


在瀏覽器中訪問:ip:8080

可以看到worker已經注冊到manager:7077,
Alive worker:1 因為我們配置了SPARK_WORKER_INSTANCES=1
當我們將SPARK_WORKER_INSTANCES的值修改為2時,重啟一下spark,然后查看ip:8080,如下:

就會看到有兩個實例了。使用jps查看:

看到有兩個worker。

測試使用

使用命令:./bin/spark-shell --master spark://manager:7077

可以看到已經啟動成功了。
在瀏覽器中查看:

可以看到,當前的這個spark-shell 用了4個core,用了1024M的內存。
當我們再啟動一個終端時,會發(fā)生什么情況?

可以看到新來的Application沒有占用Cores,而且狀態(tài)是WAITING,因此只能等到上一個Application運行結束時,才能開始運行。
當然可以通過命令指定占用多少cores和memory:
--total-executor-cores NUM,--executor-cores NUM

總結

以上是生活随笔為你收集整理的spark-1.6.0-cdh5.15.1环境搭建:Local模式和StandAlone的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內容還不錯,歡迎將生活随笔推薦給好友。