日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

CDH大数据平台搭建之HADOOP分布式集群搭建

發(fā)布時(shí)間:2023/12/18 编程问答 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 CDH大数据平台搭建之HADOOP分布式集群搭建 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

CDH大數(shù)據(jù)平臺(tái)搭建之HADOOP安裝

  • 一、什么是HADOOP?
  • 二、如何下載
    • 1.官網(wǎng)下載
    • 2.網(wǎng)盤下載
  • 三、搭建集群
    • 1.虛擬機(jī)準(zhǔn)備
    • 2.安裝JDK
    • 3.安裝ZOOKEEPER
    • 4.集群規(guī)劃
    • 5.安裝HADOOP
    • 6.修改配置文件
      • 1、進(jìn)入配置文件目錄:
      • 2、修改env文件
      • 3、修改core-site.xml文件
      • 4、修改hdfs-site.xml文件
      • 5、配置mapred-site.xml文件
      • 6、修改yarn-site.xml文件
      • 7、修改slaves文件
    • 7、分發(fā)文件
    • 8、配置環(huán)境變量
  • 四、啟動(dòng)集群
    • 1.啟動(dòng)ZOOKEEPER集群
    • 2.啟動(dòng)JournalNode
    • 3.格式化namenode
    • 4.格式化zkfc
    • 5.啟動(dòng)zkfc
    • 6.啟動(dòng)namenode
    • 7.格式化secondarynamenode
    • 8.啟動(dòng)secondarynamenode
    • 9.驗(yàn)證是否成功
    • 10.啟動(dòng)datanode
    • 11.啟動(dòng)resourcemanager
    • 12.啟動(dòng)nodemanager
  • 五、各個(gè)機(jī)器命令進(jìn)程
  • 六、網(wǎng)頁(yè)端口效果
    • 1、namenode
    • resourcemanager
  • 七、高可用測(cè)試
  • 總結(jié)


一、什么是HADOOP?

Hadoop是一個(gè)由Apache基金會(huì)所開發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu),主要是分布式數(shù)據(jù)存儲(chǔ)以及計(jì)算。

二、如何下載

1.官網(wǎng)下載

1、apache版本:http://hadoop.apache.org/ 2、cdh版本(已收費(fèi)):http://archive.cloudera.com/cdh5/cdh/5/

2.網(wǎng)盤下載

鏈接:https://pan.baidu.com/s/18x2lc0Z7JbJ7pW-15VtiDg 提取碼:cdh5

三、搭建集群

1.虛擬機(jī)準(zhǔn)備

請(qǐng)參考CHD大數(shù)據(jù)平臺(tái)搭建之VMware及虛擬機(jī)安裝
以及CHD大數(shù)據(jù)平臺(tái)搭建之虛擬環(huán)境配置

2.安裝JDK

請(qǐng)參考CHD大數(shù)據(jù)平臺(tái)搭建之JDK安裝

3.安裝ZOOKEEPER

請(qǐng)參考CHD大數(shù)據(jù)平臺(tái)搭建之ZOOKEEPER安裝

4.集群規(guī)劃

請(qǐng)參考CHD大數(shù)據(jù)平臺(tái)搭建之集群規(guī)劃

5.安裝HADOOP

tar -zxvf hadoop-2.6.0-cdh5.7.6.tar.gz -C /opt/modules/

6.修改配置文件

1、進(jìn)入配置文件目錄:

cd /opt/modules/hadoop-2.6.0-cdh5.7.6/etc/hadoop

2、修改env文件

配置env文件java安裝目錄 hadoop-env.sh mapred-env.sh yarn-env.sh 修改:export JAVA_HOME=/opt/modules/jdk1.8.0_91

3、修改core-site.xml文件

1、新建文件夾:

mkdir -p /opt/modules/hadoop-2.6.0-cdh5.7.6/data/tmp

2、添加如下內(nèi)容

<property><name>fs.defaultFS</name><value>hdfs://mycluster</value> </property> <!-- 指定Hadoop運(yùn)行時(shí)產(chǎn)生文件的存儲(chǔ)目錄 --> <property><name>hadoop.tmp.dir</name><value>/opt/modules/hadoop-2.6.0-cdh5.7.6/datas/tmp</value> </property> <!-- zookeeper通訊地址--> <property><name>ha.zookeeper.quorum</name><value>bigdata-training03.hpsk.com:2181,bigdata-training04.hpsk.com:2181,bigdata-training05.hpsk.com:2181</value> </property>

4、修改hdfs-site.xml文件

1、新建文件夾:

mkdir -p /opt/modules/hadoop-2.6.0-cdh5.7.6/data/jn

2、添加如下內(nèi)容:

<!-- 完全分布式集群名稱 --> <property><name>dfs.nameservices</name><value>mycluster</value> </property><!-- 集群中NameNode節(jié)點(diǎn)都有哪些 --> <property><name>dfs.ha.namenodes.mycluster</name><value>nn1,nn2</value> </property><!-- nn1的RPC通信地址 --> <property><name>dfs.namenode.rpc-address.mycluster.nn1</name><value>bigdata-training01.hpsk.com:9000</value> </property><!-- nn2的RPC通信地址 --> <property><name>dfs.namenode.rpc-address.mycluster.nn2</name><value>bigdata-training03.hpsk.com:9000</value> </property><!-- nn1的http通信地址 --> <property><name>dfs.namenode.http-address.mycluster.nn1</name><value>bigdata-training01.hpsk.com:50070</value> </property><!-- nn2的http通信地址 --> <property><name>dfs.namenode.http-address.mycluster.nn2</name><value>bigdata-training03.hpsk.com:50070</value> </property><!-- 指定NameNode元數(shù)據(jù)在JournalNode上的存放位置 --> <property><name>dfs.namenode.shared.edits.dir</name><value>qjournal://bigdata-training01.hpsk.com:8485;bigdata-training02.hpsk.com:8485;bigdata-training03.hpsk.com:8485;bigdata-training04.hpsk.com:8485;bigdata-training05.hpsk.com:8485/mycluster</value> </property><!-- 配置隔離機(jī)制,即同一時(shí)刻只能有一臺(tái)服務(wù)器對(duì)外響應(yīng) --> <property><name>dfs.ha.fencing.methods</name><value>sshfence</value> </property><!-- 使用隔離機(jī)制時(shí)需要ssh無秘鑰登錄--> <property><name>dfs.ha.fencing.ssh.private-key-files</name><value>/home/hpsk/.ssh/id_rsa</value> </property><!-- 聲明journalnode服務(wù)器存儲(chǔ)目錄--> <property><name>dfs.journalnode.edits.dir</name><value>/opt/modules/hadoop-2.6.0-cdh5.7.6/datas/jn</value> </property><!-- 關(guān)閉權(quán)限檢查--> <property><name>dfs.permissions.enable</name><value>false</value> </property><!-- 訪問代理類:client,mycluster,active配置失敗自動(dòng)切換實(shí)現(xiàn)方式--> <property><name>dfs.client.failover.proxy.provider.mycluster</name><value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property><!-- 自動(dòng)切換--> <property><name>dfs.ha.automatic-failover.enabled</name><value>true</value> </property>

5、配置mapred-site.xml文件

1、修改文件名

mv mapred-site.xml.template mapred-site.xml

2、添加如下內(nèi)容:

<!-- 指定MR運(yùn)行在YARN上 --> <property><name>mapreduce.framework.name</name><value>yarn</value> </property><!-- 歷史服務(wù)器端地址 --> <property><name>mapreduce.jobhistory.address</name><value>bigdata-training02.hpsk.com:10020</value> </property>

6、修改yarn-site.xml文件

1、添加如下內(nèi)容:

<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value> </property><!--啟用resourcemanager ha--> <property><name>yarn.resourcemanager.ha.enabled</name><value>true</value> </property><!--聲明兩臺(tái)resourcemanager的地址--> <property><name>yarn.resourcemanager.cluster-id</name><value>cluster-yarn1</value> </property><property><name>yarn.resourcemanager.ha.rm-ids</name><value>rm1,rm2</value> </property><property><name>yarn.resourcemanager.hostname.rm1</name><value>bigdata-training02.hpsk.com</value> </property><property><name>yarn.resourcemanager.hostname.rm2</name><value>bigdata-training03.hpsk.com</value> </property><!--指定zookeeper集群的地址--> <property><name>yarn.resourcemanager.zk-address</name><value>bigdata-training03.hpsk.com:2181,bigdata-training04.hpsk.com:2181,bigdata-training05.hpsk.com:2181</value> </property><!--啟用自動(dòng)恢復(fù)--> <property><name>yarn.resourcemanager.recovery.enabled</name><value>true</value> </property><!--指定resourcemanager的狀態(tài)信息存儲(chǔ)在zookeeper集群--> <property><name>yarn.resourcemanager.store.class</name> <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value> </property><!-- 日志聚集功能使能 --> <property><name>yarn.log-aggregation-enable</name><value>true</value> </property><!-- 日志保留時(shí)間設(shè)置7天 --> <property><name>yarn.log-aggregation.retain-seconds</name><value>604800</value> </property>

7、修改slaves文件

1、添加如下內(nèi)容:

bigdata-training01.hpsk.com bigdata-training02.hpsk.com bigdata-training03.hpsk.com bigdata-training04.hpsk.com bigdata-training05.hpsk.com

7、分發(fā)文件

xsync參考CHD大數(shù)據(jù)平臺(tái)搭建之xsync分發(fā)腳本

xsync hadoop-2.6.0-cdh5.7.6

8、配置環(huán)境變量

1、編輯配置文件

sudo vi /etc/profile

2、添加內(nèi)容

# HADOOP_HOME export HADOOP_HOME=/opt/modules/hadoop-2.6.0-cdh5.7.6 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

四、啟動(dòng)集群

1.啟動(dòng)ZOOKEEPER集群

在193、194、195三臺(tái)機(jī)器啟動(dòng)ZK zkServer.sh start

2.啟動(dòng)JournalNode

5臺(tái)機(jī)器上面都執(zhí)行 sbin/hadoop-daemon.sh start journalnode

3.格式化namenode

191上面格式化namenode bin/hdfs namenode -format

4.格式化zkfc

191上面格式化zkfc bin/hdfs zkfc -formatZK

5.啟動(dòng)zkfc

在191和193上啟動(dòng)zkfc sbin/hadoop-daemon.sh start zkfc

6.啟動(dòng)namenode

在191上啟動(dòng)namenode sbin/hadoop-daemon.sh start namenode

7.格式化secondarynamenode

在193上格式化namenode bin/hdfs namenode -bootstrapStandby

8.啟動(dòng)secondarynamenode

在193上啟動(dòng)namenode sbin/hadoop-daemon.sh start namenode

9.驗(yàn)證是否成功

1、191和193上的命令行輸入jps命令,有namenode進(jìn)程 2、網(wǎng)頁(yè)端口查看: 10.192.8.191:50070和10.192.8.193:50070 一個(gè)是standby和一個(gè)active

10.啟動(dòng)datanode

所有機(jī)器啟動(dòng)datanode sbin/hadoop-daemon.sh start datanode

11.啟動(dòng)resourcemanager

192和193上啟動(dòng)resourcemanager sbin/yarn-daemon.sh start resourcemanager

12.啟動(dòng)nodemanager

所有機(jī)器啟動(dòng)nodemanager sbin/yarn-daemon.sh start nodemanager

五、各個(gè)機(jī)器命令進(jìn)程

1、10.192.8.191進(jìn)程如下:

2、10.192.8.192進(jìn)程如下:

3、10.192.8.193進(jìn)程如下:

4、10.192.8.194進(jìn)程如下:

5、10.192.8.195進(jìn)程如下:

六、網(wǎng)頁(yè)端口效果

1、namenode

1、10.192.8.191網(wǎng)頁(yè)

2、10.192.8.193網(wǎng)頁(yè)

resourcemanager

1、10.192.8.192

2、10.192.8.193

七、高可用測(cè)試

命令行kill -9 active狀態(tài)的NN或者RN 查看另一個(gè)NN或者RN是否變成active

總結(jié)

到此hadoop集群也就搭建完成了,覺得寫得可以的小伙伴可以點(diǎn)個(gè)贊,網(wǎng)盤大數(shù)據(jù)所需軟件,需要的找前面鏈接下載哦。

總結(jié)

以上是生活随笔為你收集整理的CDH大数据平台搭建之HADOOP分布式集群搭建的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。