日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪(fǎng)問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

hadoop namenode启动不了_集群版hadoop安装,写给大忙人看的

發(fā)布時(shí)間:2023/12/10 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop namenode启动不了_集群版hadoop安装,写给大忙人看的 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

導(dǎo)語(yǔ)

如果之前的單機(jī)版hadoop環(huán)境安裝滿(mǎn)足不了你,集群版hadoop一定合你胃口,輕松入手。

目錄

  • 集群規(guī)劃
  • 前置條件
  • 配置免密登錄
    3.1 生成密匙
    3.2 免密登錄
    3.3 驗(yàn)證免密登錄
  • 集群搭建
    4.1 下載并解壓
    4.2 配置環(huán)境變量
    4.4 修改配置
    4.4 分發(fā)程序
    4.5 初始化
    4.6 啟動(dòng)集群
    4.7 查看集群
  • 提交服務(wù)到集群
  • 1. 集群規(guī)劃

    這里搭建一個(gè) 3 節(jié)點(diǎn)的 Hadoop 集群, 其中三臺(tái)主機(jī)均部署 DataNode 和 NodeManager 服務(wù), 但只有 hadoop001 上部署 NameNode 和 ResourceManager 服務(wù)。

    2. 前置條件

    Hadoop 的運(yùn)行依賴(lài) JDK,需要預(yù)先安裝。其安裝步驟單獨(dú)整理至:

    2.1 下載并解壓

    在官網(wǎng)下載所需版本的 JDK 1.8 , 下載后進(jìn)行解壓:

    [root@ java]# tar -zxvf jdk-8u201-linux-x64.tar.gz

    2.2 設(shè)置環(huán)境變量

    [root@ java]# vi /etc/profile

    添加如下配置:

    export JAVA_HOME=/usr/java/jdk1.8.0_201 export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH

    執(zhí)行 source 命令,使得配置立即生效:

    [root@ java]# source /etc/profile

    2.3 檢查是否安裝成功

    [root@ java]# java -version

    顯示出對(duì)應(yīng)的版本信息則代表安裝成功。

    java version "1.8.0_201" Java(TM) SE Runtime Environment (build 1.8.0_201-b09) Java HotSpot(TM) 64-Bit Server VM (build 25.201-b09, mixed mode)

    3. 配置免密登錄

    3.1 生成密匙

    在每臺(tái)主機(jī)上使用 ssh-keygen 命令生成公鑰私鑰對(duì):

    3.2 免密登錄

    將 hadoop001 的公鑰寫(xiě)到本機(jī)和遠(yuǎn)程機(jī)器的 ~/ .ssh/authorized_key 文件中:

    ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop001 ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop002 ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop003

    3.3 驗(yàn)證免密登錄

    ssh hadoop002 ssh hadoop003

    4. 集群搭建

    4.1 下載并解壓

    下載 Hadoop。這里我下載的是 CDH 版本 Hadoop,

    下載地址為: http://archive.cloudera.com/cdh5/cdh/5/# tar -zvxf hadoop-2.6.0-cdh5.15.2.tar.gz

    4.2 配置環(huán)境變量

    編輯 profile 文件:

    增加如下配置:

    export HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2 export PATH=${HADOOP_HOME}/bin:$PATH

    執(zhí)行 source 命令,使得配置立即生效:

    4.3 修改配置

    進(jìn)入 ${HADOOP_HOME}/etc/hadoop 目錄下,修改配置文件。各個(gè)配置文件內(nèi)容如下:

  • hadoop-env.sh
  • # 指定JDK的安裝位置 export JAVA_HOME=/usr/java/jdk1.8.0_201/
  • core-site.xml
  • <configuration><property><!--指定 namenode 的 hdfs 協(xié)議文件系統(tǒng)的通信地址--><name>fs.defaultFS</name><value>hdfs://hadoop001:8020</value></property><property><!--指定 hadoop 集群存儲(chǔ)臨時(shí)文件的目錄--><name>hadoop.tmp.dir</name><value>/home/hadoop/tmp</value></property> </configuration>
  • hdfs-site.xml
  • <property><!--namenode 節(jié)點(diǎn)數(shù)據(jù)(即元數(shù)據(jù))的存放位置,可以指定多個(gè)目錄實(shí)現(xiàn)容錯(cuò),多個(gè)目錄用逗號(hào)分隔--><name>dfs.namenode.name.dir</name><value>/home/hadoop/namenode/data</value> </property> <property><!--datanode 節(jié)點(diǎn)數(shù)據(jù)(即數(shù)據(jù)塊)的存放位置--><name>dfs.datanode.data.dir</name><value>/home/hadoop/datanode/data</value> </property>
  • yarn-site.xml
  • <configuration><property><!--配置 NodeManager 上運(yùn)行的附屬服務(wù)。需要配置成 mapreduce_shuffle 后才可以在 Yarn 上運(yùn)行 MapReduce 程序。--><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><!--resourcemanager 的主機(jī)名--><name>yarn.resourcemanager.hostname</name><value>hadoop001</value></property> </configuration>
  • mapred-site.xml
  • <configuration><property><!--指定 mapreduce 作業(yè)運(yùn)行在 yarn 上--><name>mapreduce.framework.name</name><value>yarn</value></property> </configuration>
  • slaves 配置所有從屬節(jié)點(diǎn)的主機(jī)名或 IP 地址,每行一個(gè)。所有從屬節(jié)點(diǎn)上的 DataNode 服務(wù)和 NodeManager 服務(wù)都會(huì)被啟動(dòng)。
  • hadoop001 hadoop002 hadoop003

    4.4 分發(fā)程序

    將 Hadoop 安裝包分發(fā)到其他兩臺(tái)服務(wù)器,分發(fā)后建議在這兩臺(tái)服務(wù)器上也配置一下 Hadoop 的環(huán)境變量。

    # 將安裝包分發(fā)到hadoop002 scp -r /usr/app/hadoop-2.6.0-cdh5.15.2/ hadoop002:/usr/app/ # 將安裝包分發(fā)到hadoop003 scp -r /usr/app/hadoop-2.6.0-cdh5.15.2/ hadoop003:/usr/app/

    4.5 初始化

    在 Hadoop001 上執(zhí)行 namenode 初始化命令:

    hdfs namenode -format

    4.6 啟動(dòng)集群

    進(jìn)入到 Hadoop001 的 ${HADOOP_HOME}/sbin 目錄下,啟動(dòng) Hadoop。此時(shí) hadoop002 和 hadoop003 上的相關(guān)服務(wù)也會(huì)被啟動(dòng):

    # 啟動(dòng)dfs服務(wù) start-dfs.sh # 啟動(dòng)yarn服務(wù) start-yarn.sh

    4.7 查看集群

    在每臺(tái)服務(wù)器上使用 jps 命令查看服務(wù)進(jìn)程,或直接進(jìn)入 Web-UI 界面進(jìn)行查看,端口為 50070。可以看到此時(shí)有三個(gè)可用的 Datanode:

    點(diǎn)擊 Live Nodes 進(jìn)入,可以看到每個(gè) DataNode 的詳細(xì)情況:

    接著可以查看 Yarn 的情況,端口號(hào)為 8088 :

    5. 提交服務(wù)到集群

    提交作業(yè)到集群的方式和單機(jī)環(huán)境完全一致,這里以提交 Hadoop 內(nèi)置的計(jì)算 Pi 的示例程序?yàn)槔?#xff0c;在任何一個(gè)節(jié)點(diǎn)上執(zhí)行都可以,命令如下:

    hadoop jar /usr/app/hadoop-2.6.0-cdh5.15.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.15.2.jar pi 3 3

    總結(jié)

    以上是生活随笔為你收集整理的hadoop namenode启动不了_集群版hadoop安装,写给大忙人看的的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

    如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。