日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

正确地启动hadoop

發(fā)布時間:2023/12/20 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 正确地启动hadoop 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.


-----------------------環(huán)境-----------------------
ubuntu16.04系統(tǒng) 64位
apache-hive-3.0.0-bin ? ? ? ? ?
spark-2.3.1-bin-hadoop2.7

scala2.11

JDK版本:jdk1.8.0_131
hadoop-3.0.3 ? ? ??
筆記本y460 ? ? ? ? ? ?
------------------------查看hostname------------------------
(python2.7) appleyuchi@ubuntu:~$ hostname
ubuntu

--------------------hosts配置----------------------------
/etc/hosts中注意hostname不要和127.0.0.1綁定
219.223.207.228 ubuntu
127.0.0.1 ? localhost

為什么這么搞呢?因為這樣可以在一臺機子上模仿兩個節(jié)點(也就是兩個ip)之間的協(xié)作.


-----------------關(guān)掉防火墻--------------------------------
root@ubuntu:/home/appleyuchi# ufw status
Status: inactive
-----------------------啟動進程是否完整--------------------------

啟動hdfs.sh以后輸入jps看下是否有以下進程,很多時候,namenode容易起不來
(python2.7) appleyuchi@ubuntu:~/bigdata/hadoop-3.0.3/sbin$ jps
8739 NameNode
22822 ResourceManager
9256 Jps
22936 NodeManager
9081 SecondaryNameNode
8861 DataNode

---------------------core-site.xml配置---------------------------------
所在路徑:~/bigdata/hadoop-3.0.3/etc/hadoop

<configuration><property><name>hadoop.tmp.dir</name><value>file:/home/appleyuchi/bigdata/hadoop_tmp</value><description>Abase for other temporary directories.</description></property><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property> </configuration>


-----------------------hdfs-site.xml配置------------------------------
所在路徑:~/bigdata/hadoop-3.0.3/etc/hadoop

<configuration><property> ? ? ? ? ? ? ? ??<name>dfs.secondary.http.address</name> ? ? ? ? ? ? ? ??<value>ubuntu:50090</value> ? ? ?</property><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.namenode.name.dir</name><value>file:/home/appleyuchi/dfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/home/appleyuchi/dfs/data</value></property> </configuration>


------------------------------
如果啟動不起來

按照如下過程操作:(參考:https://www.cnblogs.com/lishpei/p/6136043.html)
執(zhí)行 NameNode 的格式化(這里我個人理解哈,格式化的時候是會損毀現(xiàn)有數(shù)據(jù)的,所以格式化前數(shù)據(jù)備份好):
hadoop@hadoop:/usr/local/hadoop$ ./bin/hdfs namenode -format

先關(guān)閉之前的dfs進程
hadoop@hadoop:/usr/local/hadoop$ ./sbin/stop-dfs.sh
啟動NameNode 和 DataNode 守護進程。
hadoop@hadoop:/usr/local/hadoop$ ./sbin/start-dfs.sh

-----------------------最終效果-------------------------------------

(python2.7) appleyuchi@ubuntu:~/bigdata/hadoop-3.0.3/sbin$ jps 8739 NameNode 22822 ResourceManager 9256 Jps 22936 NodeManager 9081 SecondaryNameNode 8861 DataNode

另外,此時瀏覽器的地址欄輸入以下地址就可以打開了
http://ubuntu:50090 ? ? ? ? ? ? ?這個是和hdfs-site.xml的內(nèi)容對應(yīng)的
http://localhost:9000 ? ? ? ? ? ?這個是和core-site.xml的內(nèi)容對應(yīng)的
此時hive也可以順利啟動了

總結(jié)

以上是生活随笔為你收集整理的正确地启动hadoop的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。