日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

hadoop(ha)hbase(双master)安装

發(fā)布時(shí)間:2025/7/14 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop(ha)hbase(双master)安装 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

一.軟件包準(zhǔn)備

CentOS Linux release 7.2 ?Linux version 3.10.0-327.el7.x86_64

jdk-7u65-linux-x64.tar.gz

zookeeper-3.4.9

hadoop-2.7.3

hbase-1.3.0

?

集群機(jī)器配置

時(shí)間同步、設(shè)置時(shí)區(qū)

ssh免密登錄

安裝psmisc工具包

二.安裝、配置

                            節(jié)點(diǎn)規(guī)劃

hostname

ip

Hadoop

Hbase

zk

ecloud-test06.cn

192.168.200.80

NameNode

DataNode

JournalNode

DFSZKFailoveController

HMaster

HRegionServer

QuorumPeerMain

ecloud-test07.cn

192.168.200.81

NameNode

DataNode

JournalNode

DFSZKFailoveController

HMaster

HRegionServer

QuorumPeerMain

ecloud-test09.cn

192.168.200.83

DataNode

JournalNode

HRegionServer

ThriftServer

QuorumPeerMain

1.?zk安裝配置

解壓zk到安裝目錄

?

修改安裝目錄中zoo.cfg文件

dataDir=/sdb/data1/zookeeper/data ??#zk數(shù)據(jù)目錄

dataLogDir=/home/zookeeper/logs#zk日志目錄

clientPort=2181#zk端口

server.1=192.168.200.80:2888:3888# .x ?本節(jié)點(diǎn)id,需要在dataDir下創(chuàng)

server.2=192.168.200.81:2888:3888# myid文件并填入對應(yīng)id

server.3=192.168.200.83:2888:3888

2888 集群通信端口,3888集群選主端口

?

在各機(jī)器上開啟服務(wù) bin/zkServer.sh ?start

在其中一臺(tái)機(jī)器bin/zkClient.sh 連接服務(wù)測試

?

2.?Hadoop 安裝配置

解壓hadoop到安裝目錄

添加/etc/profile.d/hdfs.sh

HADOOP_HOME=/usr/local/hadoop-2.7.3PATH=$HADOOP_HOME/bin:$PATHexport HADOOP_HOMEexport PATHHADOOP_CONF=/usr/local/hadoop-2.7.3/etc/hadoopexport HADOOP_CONFexport JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native/export LD_LIBRARY_PATH=${HADOOP_HOME}/lib/native/:$LD_LIBRARY_PATH

修改hadoop-env.sh

export JAVA_HOME=/Application/xx/enterprise/jdk/jdk1.7.0_65 export HADOOP_OPTS="$HADOOP_OPTS -Djava.net.preferIPv4Stack=true -Duser.timezone=GMT+08"

修改hdfs-site.xml配置文件

<configuration> <!--NameNode集群名稱--><property><name>dfs.nameservices</name><value>hcluster</value></property><!--NameNode地址集群標(biāo)識(shí)(hcluster),最多兩個(gè)--><property><name>dfs.ha.namenodes.hcluster</name><value>nn0,nn1</value></property><!--HDFS文件系統(tǒng)數(shù)據(jù)存儲(chǔ)位置,可以分別保存到不同硬盤,突破單硬盤性能瓶頸,多個(gè)位置以逗號(hào)隔開--><property><name>dfs.data.dir</name><value>/sdb/data1/hadoop/hdfs/data</value></property><!--數(shù)據(jù)副本數(shù)量,根據(jù)HDFS臺(tái)數(shù)設(shè)置,默認(rèn)3份--><property><name>dfs.replication</name><value>2</value></property><property><name>dfs.namenode.rpc-address.hcluster.nn0</name><value>ecloud-test06.cn:9000</value></property><!--RPC端口--><property><name>dfs.namenode.rpc-address.hcluster.nn1</name><value>ecloud-test07.cn:9000</value></property><!--NameNode HTTP訪問地址--><property><name>dfs.namenode.http-address.hcluster.nn0</name><value>ecloud-test06.cn:50070</value></property><property><name>dfs.namenode.http-address.hcluster.nn1</name><value>ecloud-test07.cn:50070</value></property><!--NN存放元數(shù)據(jù)和日志位置--><property><name>dfs.namenode.name.dir</name><value>/sdb/data1/hadoop/hdfs/name</value></property><!--同時(shí)把NameNode元數(shù)據(jù)和日志存放在JournalNode上(/home/hadoop/journal/hcluster)--><property><name>dfs.namenode.shared.edits.dir</name> <value>qjournal://ecloud-test06.cn:8485;ecloud-test07.cn:8485;ecloud-test09.cn:8485/hcluster</value></property><!--JournalNode上元數(shù)據(jù)和日志存放位置--><property><name>dfs.journalnode.edits.dir</name><value>/sdb/data1/hadoop/hdfs/journal</value></property><!--開啟NameNode失敗自動(dòng)切換--><property><name>dfs.ha.automatic-failover.enabled</name><value>true</value></property><!--NameNode失敗自動(dòng)切換實(shí)現(xiàn)方式--><property><name>dfs.client.failover.proxy.provider.hcluster</name><value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value></property><!--隔離機(jī)制方法,確保任何時(shí)間只有一個(gè)NameNode處于活動(dòng)狀態(tài)--><property><name>dfs.ha.fencing.methods</name><value>sshfence</value></property><!--使用sshfence隔離機(jī)制要SSH免密碼認(rèn)證--><property><name>dfs.ha.fencing.ssh.private-key-files</name><value>/root/.ssh/id_rsa</value></property><property><name>dfs.ha.fencing.ssh.connect-timeout</name><value>30000</value></property> </configuration>

修改core-site.xml配置文件

<configuration><!--HDFS路徑邏輯名稱--><property><name>fs.defaultFS</name><value>hdfs://hcluster</value></property><!--Hadoop存放臨時(shí)文件位置--><property><name>hadoop.tmp.dir</name><value>/sdb/data1/hadoop/hdfs/tmp</value></property><!--使用的zookeeper集群地址--><property><name>ha.zookeeper.quorum</name><value>ecloud-test06.cn:2181,ecloud-test07.cn:2181,ecloud-test09.cn:2181</value></property> </configuration>

修改yarn-site.xml配置文件

<configuration> <!-- Site specific YARN configuration properties --><!--啟用RM高可用--><property><name>yarn.resourcemanager.ha.enabled</name><value>true</value></property><!--RM集群標(biāo)識(shí)符--><property><name>yarn.resourcemanager.cluster-id</name><value>rm-cluster</value></property><property><!--指定兩臺(tái)RM主機(jī)名標(biāo)識(shí)符--><name>yarn.resourcemanager.ha.rm-ids</name><value>rm1,rm2</value></property><!--RM故障自動(dòng)切換--><property><name>yarn.resourcemanager.ha.automatic-failover.recover.enabled</name><value>true</value></property><!--RM故障自動(dòng)恢復(fù)<property><name>yarn.resourcemanager.recovery.enabled</name> <value>true</value> </property> --><!--RM主機(jī)1--><property><name>yarn.resourcemanager.hostname.rm1</name><value>ecloud-test06.cn</value></property><!--RM主機(jī)2--><property><name>yarn.resourcemanager.hostname.rm2</name><value>ecloud-test07.cn</value></property><!--RM狀態(tài)信息存儲(chǔ)方式,一種基于內(nèi)存(MemStore),另一種基于ZK(ZKStore)--><property><name>yarn.resourcemanager.store.class</name><value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value></property><!--使用ZK集群保存狀態(tài)信息--><property><name>yarn.resourcemanager.zk-address</name><value>ecloud-test06.cn:2181,ecloud-test07.cn:2181,ecloud-test09.cn:2181</value></property><!--向RM調(diào)度資源地址--><property><name>yarn.resourcemanager.scheduler.address.rm1</name><value>ecloud-test06.cn:8030</value></property><property><name>yarn.resourcemanager.scheduler.address.rm2</name><value>ecloud-test07.cn:8030</value></property><!--NodeManager通過該地址交換信息--><property><name>yarn.resourcemanager.resource-tracker.address.rm1</name><value>ecloud-test06.cn:8031</value></property><property><name>yarn.resourcemanager.resource-tracker.address.rm2</name><value>ecloud-test07.cn:8031</value></property><!--客戶端通過該地址向RM提交對應(yīng)用程序操作--><property><name>yarn.resourcemanager.address.rm1</name><value>ecloud-test06.cn:8032</value></property><property><name>yarn.resourcemanager.address.rm2</name><value>ecloud-test07.cn:8032</value></property><!--管理員通過該地址向RM發(fā)送管理命令--><property><name>yarn.resourcemanager.admin.address.rm1</name><value>ecloud-test06.cn:8033</value></property><property><name>yarn.resourcemanager.admin.address.rm2</name><value>ecloud-test07.cn:8033</value></property><!--RM HTTP訪問地址,查看集群信息--><property><name>yarn.resourcemanager.webapp.address.rm1</name><value>ecloud-test06.cn:8088</value></property><property><name>yarn.resourcemanager.webapp.address.rm2</name><value>ecloud-test07.cn:8088</value></property> </configuration>

修改mapred-site.xml配置文件

<configuration><!--指定MR框架為YARN--><property><name>mapreduce.framework.name</name><value>yarn</value></property><!-- 配置 MapReduce JobHistory Server地址 ,默認(rèn)端口10020 --><property><name>mapreduce.jobhistory.address</name><value>0.0.0.0:10020</value></property><!-- 配置 MapReduce JobHistory Server HTTP地址, 默認(rèn)端口19888 --><property><name>mapreduce.jobhistory.webapp.address</name><value>0.0.0.0:19888</value></property> </configuration>

修改slaves配置文件

ecloud-test06.cn ecloud-test07.cn ecloud-test09.cn

?

在任一配置了journalnode的節(jié)點(diǎn)啟動(dòng)JournalNode

sbin/hadoop-daemons.sh start journalnode ?

test06 上執(zhí)行格式化namenode

hdfs namenode -format ?????????????????

test06 啟動(dòng) namenode

sbin/hadoop-daemon.sh start namenode

test07 執(zhí)行同步

bin/hdfs namenode -bootstrapStandby

test07 啟動(dòng) namenode

sbin/hadoop-daemon.sh start namenode

test06格式化zkfc

hdfs zkfc -formatZK

test06啟動(dòng)HDFS集群

sbin/start-dfs.sh

在命令行輸入jps查看hadoop上述節(jié)點(diǎn),如果都存在則安裝成功

?

3.?Hbase安裝配置

解壓hbase到安裝目錄

修改hbase-env.sh配置文件

export JAVA_HOME=/Application/xx/enterprise/jdk/jdk1.7.0_65 export HBASE_OPTS="-XX:+UseConcMarkSweepGC -Duser.timezone=GMT+08" export HBASE_MANAGES_ZK=false

修改hbase-site.xml配置文件

<configuration><property><name>hbase.rootdir</name><value>hdfs://hcluster/hbase</value></property><property><name>hbase.cluster.distributed</name><value>true</value></property><property><name>hbase.zookeeper.quorum</name><value>ecloud-test06.cn,ecloud-test07.cn,ecloud-test08.cn</value></property><property><name>hbase.master.port</name><value>60000</value></property><property><name>zookeeper.session.timeout</name><value>60000</value></property><property><name>hbase.zookeeper.property.clientPort</name><value>2181</value></property><property><name>hbase.zookeeper.property.dataDir</name><value>/sdb/data1/zookeeper/data</value></property> </configuration>

修改regionservers配置文件

ecloud-test06.cn ecloud-test07.cn ecloud-test09.cn

修改backup-masters配置文件

ecloud-test07.cn

?

使用start-hbase.sh啟動(dòng)集群

使用hbase shell打開shell驗(yàn)證安裝

?

參考:

Hadoop2.6(NN/RM)高可用集群安裝與部署

hadoop HA高可用集群模式搭建指南

?

?

轉(zhuǎn)載于:https://www.cnblogs.com/B0-1/p/6485276.html

總結(jié)

以上是生活随笔為你收集整理的hadoop(ha)hbase(双master)安装的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。