日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hadoop 2.x 完全分布式HA集群环境搭建

發(fā)布時間:2025/3/19 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Hadoop 2.x 完全分布式HA集群环境搭建 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

Hadoop 2.x?完全分布式HA集群環(huán)境搭建

目錄

Hadoop 2.0 環(huán)境搭建

前提:環(huán)境準(zhǔn)備

第一步:修改hadoop-env.sh配置文件,配置好JAVA_HOME環(huán)境變量

第二步:修改hdfs-site.xml配置文件,增加如下配置

第三步:修改core-site.xml 配置文件

第四步:下載zookeeper,復(fù)制并修改zoo_sample.cfg 為 zoo.cfg文件

第五步:在Hadoop中配置slaves文件

第六步:將hadoop-2.5.2.tar.gz上傳到node2、node3、node4節(jié)點/home目錄下并解壓

第七步:進(jìn)入node2、node3、node4節(jié)點下/home/hadoop-2.5.2/sbin目錄啟動 journalnode

第八步:進(jìn)入node1節(jié)點下/home/hadoop-2.5.2/bin格式化namenode

第九步:進(jìn)入/home/hadoop-2.5.2/sbin 啟動node1節(jié)點下的namenode,

第十步:進(jìn)入node2(未被格式化的namenode)節(jié)點下/home/hadoop-2.5.2/bin進(jìn)行格式化并啟動該namenode

第十一步:進(jìn)入namenode所在的節(jié)點上任意一個的/home/hadoop-2.5.2/bin格式化zkFC,

第十二步:進(jìn)入node1的/home/hadoop-2.5.2/sbin停啟服務(wù)

全過程總結(jié)(先后順序)

MapReduce 配置

第一步:/home/hadoop-2.5.2/etc/hadoop配置 mapred-site.xml

第二步:/home/hadoop-2.5.2/etc/hadoop配置yarn-site.xml

第三步啟動:


前提:環(huán)境準(zhǔn)備

  • 上傳hadoop-2.5.2到/home目錄下
  • 配置好jdk環(huán)境
  • 整體布局
  • ?NNDNZKZKFCJNRMDM
    node11?11?1?
    node211111?1
    node3?11?1?1
    node4?1??1?1

    第一步:修改hadoop-env.sh配置文件,配置好JAVA_HOME環(huán)境變量

    export JAVA_HOME=/home/java/jdk1.8.0_191

    ?

    第二步:修改hdfs-site.xml配置文件,增加如下配置

    <configuration><property><name>dfs.nameservices</name><value>mycluster</value></property> <property><name>dfs.ha.namenodes.mycluster</name><value>nn1,nn2</value></property><property><name>dfs.namenode.rpc-address.mycluster.nn1</name><value>node1:8020</value></property><property><name>dfs.namenode.rpc-address.mycluster.nn2</name><value>node2:8020</value></property><property><name>dfs.namenode.http-address.mycluster.nn1</name><value>node1:50070</value></property><property><name>dfs.namenode.http-address.mycluster.nn2</name><value>node2:50070</value></property><property><name>dfs.namenode.shared.edits.dir</name><value>qjournal://node2:8485;node3:8485;node4:8485/mycluster</value></property><property><name>dfs.client.failover.proxy.provider.mycluster</name><value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value></property><property><name>dfs.ha.fencing.methods</name><value>sshfence</value></property><property><name>dfs.ha.fencing.ssh.private-key-files</name><value>/root/.ssh/id_rsa</value></property><property><name>dfs.journalnode.edits.dir</name><value>/opt/jn/data</value></property><property><name>dfs.ha.automatic-failover.enabled</name><value>true</value></property></configuration>

    第三步:修改core-site.xml 配置文件

    <configuration><property><name>fs.defaultFS</name><value>hdfs://mycluster</value></property><property><name>ha.zookeeper.quorum</name><value>node1:2181,node2:2181,node3.com:2181</value></property><property><name>hadoop.tmp.dir</name><value>/opt/hadoop-2.5.2</value></property>

    第四步:下載zookeeper,復(fù)制并修改zoo_sample.cfg 為 zoo.cfg文件

    dataDir=/opt/zookeeperserver.1=node1:2888:3888 server.2=node2:2888:3888 server.3=node3:2888:3888

    創(chuàng)建文件夾/opt/zookeeper
    vi myid ,內(nèi)容為1,其余兩臺服務(wù)器節(jié)點相同目錄分別對應(yīng)指定2、3

    scp -r zookeeper/ root@node2:/opt/ scp -r zookeeper/ root@node3:/opt/

    將zookeeper拷貝到另外兩個服務(wù)器節(jié)點

    scp -r zookeeper-3.4.6 root@node2:/home/ scp -r zookeeper-3.4.6 root@node3:/home/

    編輯/etc/profile文件添加zookeeper環(huán)境變量

    export PATH=$PATH:/home/zookeeper-3.4.6/bin

    source /etc/profile 文件使配置生效

    source /etc/profile

    拷貝配置文件到其余兩個節(jié)點

    scp /etc/profile root@node2:/etc/ scp /etc/profile root@node2:/etc/

    進(jìn)入/home/zookeeper-3.4.6/bin分別啟動zookeeper

    zkServer.sh start

    第五步:在Hadoop中配置slaves文件

    node2 node3 node4

    第六步:將hadoop-2.5.2.tar.gz上傳到node2、node3、node4節(jié)點/home目錄下并解壓

    將node1 上的/home/hadoop-2.5.2/etc/hadoop配置文件拷貝到node2、node3、node4上

    scp ./* root@node2:/home/hadoop-2.5.2/etc/hadoop/ scp ./* root@node3:/home/hadoop-2.5.2/etc/hadoop/ scp ./* root@node4:/home/hadoop-2.5.2/etc/hadoop/

    第七步:進(jìn)入node2、node3、node4節(jié)點下/home/hadoop-2.5.2/sbin目錄啟動 journalnode

    ./hadoop-daemon.sh start journalnode

    第八步:進(jìn)入node1節(jié)點下/home/hadoop-2.5.2/bin格式化namenode

    ./hdfs namenode -format

    第九步:進(jìn)入/home/hadoop-2.5.2/sbin 啟動node1節(jié)點下的namenode,

    ./hadoop-daemon.sh start namenode

    第十步:進(jìn)入node2(未被格式化的namenode)節(jié)點下/home/hadoop-2.5.2/bin進(jìn)行格式化并啟動該namenode

    ./hdfs namenode -bootstrapStandby

    第十一步:進(jìn)入namenode所在的節(jié)點上任意一個的/home/hadoop-2.5.2/bin格式化zkFC,

    ./hdfs zkfc -formatZK

    第十二步:進(jìn)入node1的/home/hadoop-2.5.2/sbin停啟服務(wù)

    ./stop-dfs.sh./start-dfs.sh

    全過程總結(jié)(先后順序)

    1.core-site.xml 2.hdfs-site.xml


    11.全面啟動:start-dfs.sh

    WEB管理頁面效果

    ?

    MapReduce 配置

    第一步:/home/hadoop-2.5.2/etc/hadoop配置 mapred-site.xml

    <property><name>mapreduce.framework.name</name><value>yarn</value> </property>

    第二步:/home/hadoop-2.5.2/etc/hadoop配置yarn-site.xml

    <property><name>yarn.resourcemanager.hostname</name><value>node1</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value></property>

    第三步啟動:

    ./start-yarn.sh或者與HDFS一起啟動./start-all.sh

    Web管理頁面效果:

    總結(jié)

    以上是生活随笔為你收集整理的Hadoop 2.x 完全分布式HA集群环境搭建的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。