日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

hbase集群搭建,hbase单个节点重启

發布時間:2024/9/27 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hbase集群搭建,hbase单个节点重启 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1.1 hbase集群結構


REGION:是HBASE中對表進行切割的單元

HMASTER: HBASE的主節點,負責整個集群的狀態感知,負載分配、負責用戶表的元數據管理
(可以配置多個用來實現HA)
為regionserver分配region,負責regionserver負載均衡
用戶對表的增刪改查
如果當前的regionserver宕機,會把region遷移

REGION-SERVER: HBASE中真正負責管理region的服務器,也就是負責為客戶端進行表數據讀寫的服務器
維護master給它的region
當這個region過大的情況下,他還負責切分這個過大的region
(負責客戶端的IO請求,去hdfs上進行讀寫數據)

ZOOKEEPER: 整個HBASE中的主從節點協調,主節點之間的選舉,集群節點之間的
上下線感知……都是通過zookeeper來實現
Region 存儲尋址入口
監控:REGION SERVER 上下線 把這個狀態告訴master
存儲hbase的schema(當前哪些表,表里有哪些列族)

1.2 hbase集群搭建

(1)上傳hbase安裝包(上傳到hadoop1,hadoop2,hadoop3這三臺服務器上),上傳后的位置如下:

[root@hadoop1 software]# cd /home/tuzq/software [root@hadoop1 software]# pwd /home/tuzq/software [root@hadoop1 software]# ls hbase-1.3.1-bin.tar.gz

(2)解壓,并配置環境變量

[root@hadoop1 software]# tar -zxvf hbase-1.3.1-bin.tar.gz [root@hadoop1 software]# cd hbase-1.3.1 [root@hadoop1 hbase-1.3.1]# ll 總用量 348 drwxr-xr-x. 4 root root 4096 45 11:02 bin -rw-r--r--. 1 root root 148959 47 09:45 CHANGES.txt drwxr-xr-x. 2 root root 4096 45 11:02 conf drwxr-xr-x. 12 root root 4096 47 10:35 docs drwxr-xr-x. 7 root root 4096 47 10:26 hbase-webapps -rw-r--r--. 1 root root 261 47 10:37 LEGAL drwxr-xr-x. 3 root root 4096 622 11:25 lib -rw-r--r--. 1 root root 130696 47 10:37 LICENSE.txt -rw-r--r--. 1 root root 43258 47 10:37 NOTICE.txt -rw-r--r--. 1 root root 1477 921 2016 README.txt [root@hadoop1 hbase-1.3.1]# [root@hadoop1 hbase-1.3.1]# vim /etc/profile #set hbase env export HBASE_HOME=/home/tuzq/software/hbase-1.3.1 export PATH=$PATH:$HBASE_HOME/bin[root@hadoop1 hbase-1.3.1]# source /etc/profile

(3)配置hbase集群,要修改3個文件
注意: 要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下

[root@hadoop1 hadoop]# pwd /home/tuzq/software/hadoop-2.8.0/etc/hadoop [root@hadoop1 hadoop]# cp hdfs-site.xml /home/tuzq/software/hbase-1.3.1/conf [root@hadoop1 hadoop]# cp core-site.xml /home/tuzq/software/hbase-1.3.1/conf [root@hadoop1 hadoop]# cd $HBASE_HOME [root@hadoop1 conf]# ll 總用量 52 -rw-r--r--. 1 root root 1376 6月 22 11:48 core-site.xml -rw-r--r--. 1 root root 1811 9月 21 2016 hadoop-metrics2-hbase.properties -rw-r--r--. 1 root root 4537 11月 7 2016 hbase-env.cmd -rw-r--r--. 1 root root 7468 11月 7 2016 hbase-env.sh -rw-r--r--. 1 root root 2257 9月 21 2016 hbase-policy.xml -rw-r--r--. 1 root root 934 9月 21 2016 hbase-site.xml -rw-r--r--. 1 root root 5203 6月 22 11:48 hdfs-site.xml -rw-r--r--. 1 root root 4722 4月 5 11:02 log4j.properties -rw-r--r--. 1 root root 10 12月 1 2015 regionservers [root@hadoop1 conf]#

(3.1)修改hbase-env.sh

export JAVA_HOME=/usr/local/jdk1.8.0_73 #告訴hbase使用外部的zk,HBASE不管理zookeeper集群 export HBASE_MANAGES_ZK=false #配置hadoop的環境變量 export HADOOP_HOME=/home/tuzq/software/hadoop-2.8.0

(3.2)修改 hbase-site.xml

<configuration><!-- 指定hbase在HDFS上存儲的路徑,讓hdfs統一管理HBASE產生的數據文件,說明不是單機的hbase,是一個集群的hbase,注意這里的hdfs://mycluster是hadoop的core-site-xml里的fs.defaultFS的值,hadoopHA配置是沒有端口的--><property><name>hbase.rootdir</name><value>hdfs://mycluster/hbase</value></property><!--指定hbase是否分布式的--><property><name>hbase.cluster.distributed</name><value>true</value></property><!--指定zk的地址,多個用","分割,注意,這里只是指定zookeeper的主機名稱--><property><name>hbase.zookeeper.quorum</name><value>hadoop11,hadoop12,hadoop13</value></property> </configuration>

(3.3)修改 regionservers
通過這個告訴slave有那些臺(hadoop1(Master),hadoop2,hadoop3,hadoop4,hadoop5為slave)

[root@hadoop1 conf]# vim regionservers hadoop2 hadoop3 hadoop4 hadoop5

(3.3) 修改 backup-masters來指定備用的主節點

[root@mini1 conf]# vi backup-masters hadoop2

(3.4) 拷貝hbase到其他節點

[root@hadoop1 software]# pwd /home/tuzq/software [root@hadoop1 software]# scp -r hbase-1.3.1 root@hadoop2:$PWD [root@hadoop1 software]# scp -r hbase-1.3.1 root@hadoop3:$PWD [root@hadoop1 software]# scp -r hbase-1.3.1 root@hadoop4:$PWD [root@hadoop1 software]# scp -r hbase-1.3.1 root@hadoop5:$PWD

注意:修改這些機器上的storm的環境變量

(4) 將配置好的HBase拷貝到每一個節點并同步時間。
(可以用 ntpdate time.nist.gov 進行同步)

(5) 啟動所有的hbase進程
首先要同步集群的時間

首先啟動zk集群./zkServer.sh start 啟動hdfs集群start-dfs.sh 檢驗dfs是否啟動了的命令是:hdfs dfsadmin -report或者訪問:http://hadoop2:50070/explorer.html#/http://hadoop1:8088/cluster 啟動hbase,在主節點上運行: [root@hadoop1 bin]# pwd /home/tuzq/software/hbase-1.3.1/bin [root@hadoop1 bin]#./start-hbase.sh (這里不用在其它機器上執行命令)

停止hbase的方式是:

[root@hadoop1 bin]# ./stop-hbase.sh stopping hbase..................... [root@hadoop1 bin]# jps 10864 ConsoleConsumer 4624 DataNode 112387 Jps 109748 DFSZKFailoverController 10680 ConsoleConsumer 108618 ResourceManager 3981 JournalNode 108735 NodeManager 4095 NameNode [root@hadoop1 bin]#

(6) 通過瀏覽器訪問hbase管理頁面
192.168.1.201:60010
http://hadoop1:16010/
Ip:16010

進入hadoop-ha集群中,查看數據發現已經多出了一個hbase的文件夾

(7) 為保證集群的可靠性,要啟動多個HMaster
[root@hadoop1 software]# cd $HBASE_HOME/bin
[root@hadoop1 software]# ./hbase-daemon.sh start master (這個可以到hadoop2上啟動)

HBASE:
很多時候,節點失效是因為pid文件被刪除引起(默認pid文件中/tmp下),所以最好把很多默認是/tmp的目錄修改成自己的目錄,比如hbase的pid配置可以在hbase-env.sh中,修改export HBASE_PID_DIR=/var/hadoop/pids就可以。hbase節點失效常對應60020端口異常。
進入hbase shell
1、查看節點情況:
status
當然,也可以通過web頁面查看(如果服務開放的話):
http://serviceIp:60010/master.jsp
http://serviceIp:60030/regionserver.jsp

http://serviceIp:60010/zk.jsp

2、重啟

$bin/hbase-daemon.sh stop regionserver $bin/hbase-daemon.sh start regionserver

也可以添加新的master(默認只有一個master),$bin/hbase-daemon.sh start master

總結

以上是生活随笔為你收集整理的hbase集群搭建,hbase单个节点重启的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。