日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 运维知识 > centos >内容正文

centos

Centos7完全分布式搭建Hadoop2.7.3

發(fā)布時(shí)間:2023/11/29 centos 137 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Centos7完全分布式搭建Hadoop2.7.3 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

(一)軟件準(zhǔn)備

1,hadoop-2.7.3.tar.gz(包)

2,三臺(tái)機(jī)器裝有cetos7的機(jī)子

(二)安裝步驟

  1,給每臺(tái)機(jī)子配相同的用戶

    進(jìn)入root : su root

    創(chuàng)建用戶s: ?useradd s

    修改用戶密碼:passwd s

  2.關(guān)閉防火墻及修改每臺(tái)機(jī)的hosts(root 下)

    vim /etc/hosts ?如:(三臺(tái)機(jī)子都一樣)

    vim /etc/hostsname:如修改后參看各自的hostname

    關(guān)閉防火墻:

      systemctl stop firewalld.service

      禁用防火墻:systemctl disable firewalld.service

      查看防火墻狀態(tài)firewall-cmd --state

      重啟 reboot

  3,為每臺(tái)機(jī)的用戶s配置ssh,以用戶s身份登錄 ?(一定要相同的用戶,因?yàn)閟sh通信默認(rèn)使用相同用戶身份訪問(wèn)另一臺(tái)機(jī)子)

    1,root 用戶下修改: vim?/etc/ssh/sshd_config,設(shè)置這三項(xiàng)后,執(zhí)行service sshd restart

?    2,退出root,在用戶s下操作

      生成密鑰對(duì):?ssh-keygen -t?dsa(一路回車即可)

      轉(zhuǎn)入ssh目錄下:cd .ssh

      導(dǎo)入公鑰: cat id_dsa.pub >> ?authorized_keys

      修改authorized_keys權(quán)限:chmod 644       

      authorized_keys ?(修改權(quán)限,保證自己免密碼能登入)

      驗(yàn)證 ?ssh Master (在三臺(tái)機(jī)都執(zhí)行相同的操作)

    3,實(shí)現(xiàn)master-slave免密碼登錄

      在master 上執(zhí)行:  ?cat ~/.ssh/id_dsa.pub | ssh s@Slave1 'cat - >> ~/.ssh/authorized_keys' ? ???

                cat ~/.ssh/id_dsa.pub | ssh s@Slave2 'cat - >> ~/.ssh/authorized_keys '??

      驗(yàn)證 :ssh Slave1


?(三 )配置Hadoop集群

    1,解壓hadoop和建立文件

      root用戶下:tar zxvf ?/home/hadoop/hadoop-2.7.3.tar.gz?-C?/usr/ ?

      ?重命名:mv hadoop-2.7.3 hadoop

      ?授權(quán)給s: chown -R ?s /usr/hadoop

    2,創(chuàng)建hdfs相關(guān)文件(三臺(tái)機(jī)子都需要操作)

      創(chuàng)建存儲(chǔ)hadoop數(shù)據(jù)文件的目錄: mkdir /home/hadoopdir

      存儲(chǔ)臨時(shí)文件,如pid:mkdir /home/hadoopdir/tmp

      創(chuàng)建dfs系統(tǒng)使用的dfs系統(tǒng)名稱hdfs-site.xml使用:mkdir /home/hadoopdir/dfs/name

      創(chuàng)建dfs系統(tǒng)使用的數(shù)據(jù)文件hdfs-site.xml文件使用:mkdir??/home/hadoopdir/dfs/data

       授權(quán)給s: chown -R ?s /home/hadoopdir

?    3,配置環(huán)境變量(三臺(tái)機(jī)子都需要操作)

     root用戶下:vim /etc/profile ?添加如圖: 保存退出后:source /etc/profile

          驗(yàn)證:hadoop version(這里要修改 ?/usr/hadoop/etc/hadoop/hadoop-env.sh,即export?JAVA_HOME=/usr/lib/jvm/jre)

?    4,配置hadoop文件內(nèi)容

      4.1 修改core-site.xml        

<configuration><property><name>fs.defaultFS</name><value>hdfs://Master:9000</value></property><property><name>io.file.buffer.size</name><value>131072</value></property><property><name>hadoop.tmp.dir</name><value>file:/home/hadoopdir/tmp/</value><description>A base for other temporary directories.</description></property><property><name>hadoop.proxyuser.hadoop.hosts</name><value>*</value></property><property><name>hadoop.proxyuser.hadoop.groups</name><value>*</value></property> </configuration>

     4.2 修改hdfs-site.xml文件

<configuration><property><name>dfs.namenode.name.dir</name><value>file:///home/hadoopdir/dfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:///home/hadoopdir/dfs/data</value></property><property><name>dfs.replication</name><value>2</value></property><property><name>dfs.webhdfs.enabled</name><value>true</value></property> </configuration>

    4.3 修改mapred-site.xml

<configuration> <property> <name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>Master:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>Master:19888</value></property><property><name>mapreduce.jobtracker.http.address</name><value>Master:50030</value></property><property><name>mapred.job.tracker</name><value>Master:9001</value></property> </configuration>

    4.4 修改 yarn-site.xml

<configuration><!-- Site specific YARN configuration properties --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value></property> <property><name>yarn.resourcemanager.hostname</name><value>Master</value></property><property><name>yarn.resourcemanager.address</name><value>Master:8032</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>Master:8030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>Master:8031</value></property><property><name>yarn.resourcemanager.admin.address</name><value>Master:8033</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>Master:8088</value></property> </configuration>

    4.5,修改 slaves文件

      

   5,搭建集群(普通用戶s)

     格式hadoop文件:hadoop ?namenode -format ?(最后出現(xiàn)“util.ExitUtil:?Exiting?with?status?0”,表示成功)

     發(fā)送dfs內(nèi)容給Slave1:scp ?-r?/home/hadoopdir/dfs/* ?Slave1:/home/hadoopdir/dfs

?     發(fā)給dfs內(nèi)容給Slave2:scp ?-r?/home/hadoopdir/dfs/* ?Slave2:/home/hadoopdir/dfs

    ?發(fā)送hadoop文件給數(shù)據(jù)節(jié)點(diǎn):scp?-r?/usr/hadoop/* ?Slave1:/usr/hadoop/  scp?-r?/usr/hadoop/* ?Slave2:/usr/hadoop/

   6,啟動(dòng)集群

    ./sbin/start-all.sh

      1,jps(centos 7 默認(rèn)沒(méi)有,可以參照這里安裝)查看:Master和Slave中分別出現(xiàn)如下所示:

      

      2,離開(kāi)安全模式(master): hadoop dfsadmin ?safemode ?leave

       查看結(jié)果:hadoop dfsadmin -report,如圖

      3,登錄網(wǎng)頁(yè)查看:http://Master:50070 ?(查看live node) ? ?查看yarn環(huán)境(http://Master/8088)

        

?

  (四) 參考網(wǎng)頁(yè):

      1,Ubuntu16.04 完全分布式搭建Spark2.0

      2,Cetos6詳細(xì)搭建hadoop集群

      3,SSH集群搭建

      4,livenode 為0 異常匯總(我就是第二種情況)

轉(zhuǎn)載于:https://www.cnblogs.com/xieyulin/p/7061230.html

總結(jié)

以上是生活随笔為你收集整理的Centos7完全分布式搭建Hadoop2.7.3的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。