正确地启动hadoop
-----------------------環(huán)境-----------------------
ubuntu16.04系統(tǒng) 64位
apache-hive-3.0.0-bin ? ? ? ? ?
spark-2.3.1-bin-hadoop2.7
scala2.11
JDK版本:jdk1.8.0_131
hadoop-3.0.3 ? ? ??
筆記本y460 ? ? ? ? ? ?
------------------------查看hostname------------------------
(python2.7) appleyuchi@ubuntu:~$ hostname
ubuntu
--------------------hosts配置----------------------------
/etc/hosts中注意hostname不要和127.0.0.1綁定
219.223.207.228 ubuntu
127.0.0.1 ? localhost
為什么這么搞呢?因為這樣可以在一臺機子上模仿兩個節(jié)點(也就是兩個ip)之間的協(xié)作.
-----------------關(guān)掉防火墻--------------------------------
root@ubuntu:/home/appleyuchi# ufw status
Status: inactive
-----------------------啟動進程是否完整--------------------------
啟動hdfs.sh以后輸入jps看下是否有以下進程,很多時候,namenode容易起不來
(python2.7) appleyuchi@ubuntu:~/bigdata/hadoop-3.0.3/sbin$ jps
8739 NameNode
22822 ResourceManager
9256 Jps
22936 NodeManager
9081 SecondaryNameNode
8861 DataNode
---------------------core-site.xml配置---------------------------------
所在路徑:~/bigdata/hadoop-3.0.3/etc/hadoop
-----------------------hdfs-site.xml配置------------------------------
所在路徑:~/bigdata/hadoop-3.0.3/etc/hadoop
------------------------------
如果啟動不起來
按照如下過程操作:(參考:https://www.cnblogs.com/lishpei/p/6136043.html)
執(zhí)行 NameNode 的格式化(這里我個人理解哈,格式化的時候是會損毀現(xiàn)有數(shù)據(jù)的,所以格式化前數(shù)據(jù)備份好):
hadoop@hadoop:/usr/local/hadoop$ ./bin/hdfs namenode -format
先關(guān)閉之前的dfs進程
hadoop@hadoop:/usr/local/hadoop$ ./sbin/stop-dfs.sh
啟動NameNode 和 DataNode 守護進程。
hadoop@hadoop:/usr/local/hadoop$ ./sbin/start-dfs.sh
-----------------------最終效果-------------------------------------
(python2.7) appleyuchi@ubuntu:~/bigdata/hadoop-3.0.3/sbin$ jps 8739 NameNode 22822 ResourceManager 9256 Jps 22936 NodeManager 9081 SecondaryNameNode 8861 DataNode另外,此時瀏覽器的地址欄輸入以下地址就可以打開了
http://ubuntu:50090 ? ? ? ? ? ? ?這個是和hdfs-site.xml的內(nèi)容對應(yīng)的
http://localhost:9000 ? ? ? ? ? ?這個是和core-site.xml的內(nèi)容對應(yīng)的
此時hive也可以順利啟動了
總結(jié)
以上是生活随笔為你收集整理的正确地启动hadoop的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: sqoop2操作流程
- 下一篇: scala语法汇总