Spark集群启动时worker节点启不起来
生活随笔
收集整理的這篇文章主要介紹了
Spark集群启动时worker节点启不起来
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
在spark集群中使用命令:
sbin/start-all.sh
啟動集群時報錯:
starting org.apache.spark.deploy.master.Master, logging to /home/yxk/cluster/spark/logs/spark-yxk-org.apache.spark.deploy.master.Master-1-linux.out
yxk@linux's password:
linux: starting org.apache.spark.deploy.worker.Worker, logging to /home/yxk/cluster/spark/logs/spark-yxk-org.apache.spark.deploy.worker.Worker-1-linux.out
linux: failed to launch: nice -n 0 /home/yxk/cluster/spark/bin/spark-class org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://linux:7077
linux: JAVA_HOME is not set
linux: full log in /home/yxk/cluster/spark/logs/spark-yxk-org.apache.spark.deploy.worker.Worker-1-linux.out
從日志分析中可以看出啟動時找不到JAVA_HOME
不過檢查當前用戶下的java環境是正常的,經分析尋找資料在這個博客中找到了 原理https://stackoverflow.com/questions/33955635/why-does-start-all-sh-from-root-cause-failed-to-launch-org-apache-spark-deploy
?
解決方法
在當前用戶的.bashrc文件中加入java的環境變量
$ vim ~/.bashrc加入java環境變量
重新啟動spark集群
使用jps命令查看當前的進程。顯示正常
總結
以上是生活随笔為你收集整理的Spark集群启动时worker节点启不起来的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Docker的使用(docker pul
- 下一篇: 微服务项目的整合与测试