日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

hadoop namenode启动不了_Hadoop框架:HDFS高可用环境配置

發布時間:2025/3/19 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop namenode启动不了_Hadoop框架:HDFS高可用环境配置 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一、HDFS高可用

1、基礎描述

在單點或者少數節點故障的情況下,集群還可以正常的提供服務,HDFS高可用機制可以通過配置Active/Standby兩個NameNodes節點實現在集群中對NameNode的熱備來消除單節點故障問題,如果單個節點出現故障,可通過該方式將NameNode快速切換到另外一個節點上。

2、機制詳解

  • 基于兩個NameNode做高可用,依賴共享Edits文件和Zookeeper集群;
  • 每個NameNode節點配置一個ZKfailover進程,負責監控所在NameNode節點狀態;
  • NameNode與ZooKeeper集群維護一個持久會話;
  • 如果Active節點故障停機,ZooKeeper通知Standby狀態的NameNode節點;
  • 在ZKfailover進程檢測并確認故障節點無法工作后;
  • ZKfailover通知Standby狀態的NameNode節點切換為Active狀態繼續服務;

ZooKeeper在大數據體系中非常重要,協調不同組件的工作,維護并傳遞數據,例如上述高可用下自動故障轉移就依賴于ZooKeeper組件。

二、HDFS高可用

1、整體配置

2、配置JournalNode

創建目錄

[root@hop01 opt]# mkdir hopHA

拷貝Hadoop目錄

cp -r /opt/hadoop2.7/ /opt/hopHA/

配置core-site.xml

<configuration><!-- NameNode集群模式 --><property><name>fs.defaultFS</name><value>hdfs://mycluster</value></property><!-- 指定hadoop運行時產生文件的存儲目錄 --><property><name>hadoop.tmp.dir</name><value>/opt/hopHA/hadoop2.7/data/tmp</value></property> </configuration>

配置hdfs-site.xml,添加內容如下

<!-- 分布式集群名稱 --> <property><name>dfs.nameservices</name><value>mycluster</value> </property><!-- 集群中NameNode節點 --> <property><name>dfs.ha.namenodes.mycluster</name><value>nn1,nn2</value> </property><!-- NN1 RPC通信地址 --> <property><name>dfs.namenode.rpc-address.mycluster.nn1</name><value>hop01:9000</value> </property><!-- NN2 RPC通信地址 --> <property><name>dfs.namenode.rpc-address.mycluster.nn2</name><value>hop02:9000</value> </property><!-- NN1 Http通信地址 --> <property><name>dfs.namenode.http-address.mycluster.nn1</name><value>hop01:50070</value> </property><!-- NN2 Http通信地址 --> <property><name>dfs.namenode.http-address.mycluster.nn2</name><value>hop02:50070</value> </property><!-- 指定NameNode元數據在JournalNode上的存放位置 --> <property><name>dfs.namenode.shared.edits.dir</name><value>qjournal://hop01:8485;hop02:8485;hop03:8485/mycluster</value> </property><!-- 配置隔離機制,即同一時刻只能有一臺服務器對外響應 --> <property><name>dfs.ha.fencing.methods</name><value>sshfence</value> </property><!-- 使用隔離機制時需要ssh無秘鑰登錄--> <property><name>dfs.ha.fencing.ssh.private-key-files</name><value>/root/.ssh/id_rsa</value> </property><!-- 聲明journalnode服務器存儲目錄--> <property><name>dfs.journalnode.edits.dir</name><value>/opt/hopHA/hadoop2.7/data/jn</value> </property><!-- 關閉權限檢查--> <property><name>dfs.permissions.enable</name><value>false</value> </property><!-- 訪問代理類失敗自動切換實現方式--> <property><name>dfs.client.failover.proxy.provider.mycluster</name><value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property>

依次啟動journalnode服務

[root@hop01 hadoop2.7]# pwd /opt/hopHA/hadoop2.7 [root@hop01 hadoop2.7]# sbin/hadoop-daemon.sh start journalnode

刪除hopHA下數據

[root@hop01 hadoop2.7]# rm -rf data/ logs/

NN1格式化并啟動NameNode

[root@hop01 hadoop2.7]# pwd /opt/hopHA/hadoop2.7 bin/hdfs namenode -format sbin/hadoop-daemon.sh start namenode

NN2同步NN1數據

[root@hop02 hadoop2.7]# bin/hdfs namenode -bootstrapStandby

NN2啟動NameNode

[root@hop02 hadoop2.7]# sbin/hadoop-daemon.sh start namenode

查看當前狀態

在NN1上啟動全部DataNode

[root@hop01 hadoop2.7]# sbin/hadoop-daemons.sh start datanode

NN1切換為Active狀態

[root@hop01 hadoop2.7]# bin/hdfs haadmin -transitionToActive nn1 [root@hop01 hadoop2.7]# bin/hdfs haadmin -getServiceState nn1 active

3、故障轉移配置

配置hdfs-site.xml,新增內容如下,同步集群

<property><name>dfs.ha.automatic-failover.enabled</name><value>true</value> </property>

配置core-site.xml,新增內容如下,同步集群

<property><name>ha.zookeeper.quorum</name><value>hop01:2181,hop02:2181,hop03:2181</value> </property>

關閉全部HDFS服務

[root@hop01 hadoop2.7]# sbin/stop-dfs.sh

啟動Zookeeper集群

/opt/zookeeper3.4/bin/zkServer.sh start

hop01初始化HA在Zookeeper中狀態

[root@hop01 hadoop2.7]# bin/hdfs zkfc -formatZK

hop01啟動HDFS服務

[root@hop01 hadoop2.7]# sbin/start-dfs.sh

NameNode節點啟動ZKFailover

這里hop01和hop02先啟動的服務狀態就是Active,這里先啟動hop02。

[hadoop2.7]# sbin/hadoop-daemon.sh start zkfc

結束hop02的NameNode進程

kill -9 14422

等待一下查看hop01狀態

[root@hop01 hadoop2.7]# bin/hdfs haadmin -getServiceState nn1 active

三、YARN高可用

1、基礎描述

基本流程和思路與HDFS機制類似,依賴Zookeeper集群,當Active節點故障時,Standby節點會切換為Active狀態持續服務。

2、配置詳解

環境同樣基于hop01和hop02來演示。

配置yarn-site.xml,同步集群下服務

<configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><!--啟用HA機制--><property><name>yarn.resourcemanager.ha.enabled</name><value>true</value></property><!--聲明Resourcemanager服務--><property><name>yarn.resourcemanager.cluster-id</name><value>cluster-yarn01</value></property><property><name>yarn.resourcemanager.ha.rm-ids</name><value>rm1,rm2</value></property><property><name>yarn.resourcemanager.hostname.rm1</name><value>hop01</value></property><property><name>yarn.resourcemanager.hostname.rm2</name><value>hop02</value></property><!--Zookeeper集群的地址--> <property><name>yarn.resourcemanager.zk-address</name><value>hop01:2181,hop02:2181,hop03:2181</value></property><!--啟用自動恢復機制--> <property><name>yarn.resourcemanager.recovery.enabled</name><value>true</value></property><!--指定狀態存儲Zookeeper集群--> <property><name>yarn.resourcemanager.store.class</name> <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value></property></configuration>

重啟journalnode節點

sbin/hadoop-daemon.sh start journalnode

在NN1服務格式化并啟動

[root@hop01 hadoop2.7]# bin/hdfs namenode -format [root@hop01 hadoop2.7]# sbin/hadoop-daemon.sh start namenode

NN2上同步NN1元數據

[root@hop02 hadoop2.7]# bin/hdfs namenode -bootstrapStandby

啟動集群下DataNode

[root@hop01 hadoop2.7]# sbin/hadoop-daemons.sh start datanode

NN1設置為Active狀態

先啟動hop01即可,然后啟動hop02。

[root@hop01 hadoop2.7]# sbin/hadoop-daemon.sh start zkfc

hop01啟動yarn

[root@hop01 hadoop2.7]# sbin/start-yarn.sh

hop02啟動ResourceManager

[root@hop02 hadoop2.7]# sbin/yarn-daemon.sh start resourcemanager

查看狀態

[root@hop01 hadoop2.7]# bin/yarn rmadmin -getServiceState rm1


總結

以上是生活随笔為你收集整理的hadoop namenode启动不了_Hadoop框架:HDFS高可用环境配置的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。