自己启动spark集群的实验记录
生活随笔
收集整理的這篇文章主要介紹了
自己启动spark集群的实验记录
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
第一步、將master和slave電腦重啟
第二、查看jps命令,結果如下:
master
slave
第三、啟動hadoop集群,準確的使用目錄./等來保證執(zhí)行的命令為hadoop目錄 下的start-all.sh
主機:
slave
?
?
第四、hadoop namenode -format
master
slave
?
?
第五步、啟動spark,命令如下:
master
?
slave
?
master上面多了master;slave上面多少worker
?
總結
以上是生活随笔為你收集整理的自己启动spark集群的实验记录的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: namenode与datanode
- 下一篇: 成功解决slave无datanode问题