日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

3台机器配置hadoop集群_Hadoop学习之路(三)Hadoop集群搭建和简单应用

發(fā)布時間:2024/10/14 编程问答 43 豆豆
生活随笔 收集整理的這篇文章主要介紹了 3台机器配置hadoop集群_Hadoop学习之路(三)Hadoop集群搭建和简单应用 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

概念了解

主從結(jié)構(gòu):在一個集群中,會有部分節(jié)點充當(dāng)主服務(wù)器的角色,其他服務(wù)器都是從服務(wù)器的角色,當(dāng)前這種架構(gòu)模式叫做主從結(jié)構(gòu)。

主從結(jié)構(gòu)分類:

1、一主多從

2、多主多從

Hadoop中的HDFS和YARN都是主從結(jié)構(gòu),主從結(jié)構(gòu)中的主節(jié)點和從節(jié)點有多重概念方式:

1、主節(jié)點  從節(jié)點

2、master  slave

3、管理者  工作者

4、leader  follower

Hadoop集群中各個角色的名稱:

服務(wù)主節(jié)點從節(jié)點
HDFSNameNodeDataNode
YARNResourceManagerNodeManager

集群服務(wù)器規(guī)劃

使用4臺CentOS-6.7虛擬機進行集群搭建

軟件安裝步驟概述

1、獲取安裝包

2、解壓縮和安裝

3、修改配置文件

4、初始化,配置環(huán)境變量,啟動,驗證

Hadoop安裝

1、規(guī)劃

規(guī)劃安裝用戶:hadoop

規(guī)劃安裝目錄:/home/hadoop/apps

規(guī)劃數(shù)據(jù)目錄:/home/hadoop/data

注:apps和data文件夾需要自己單獨創(chuàng)建

2、上傳解壓縮

注:使用hadoop用戶

[hadoop@hadoop1 apps]$ ls
hadoop-2.7.5-centos-6.7.tar.gz
[hadoop@hadoop1 apps]$ tar -zxvf hadoop-2.7.5-centos-6.7.tar.gz

3、修改配置文件

配置文件目錄:/home/hadoop/apps/hadoop-2.7.5/etc/hadoop

A. hadoop-env.sh

[hadoop@hadoop1 hadoop]$ vi hadoop-env.sh

修改JAVA_HOME

export JAVA_HOME=/usr/local/jdk1.8.0_73

B. core-site.xml

[hadoop@hadoop1 hadoop]$ vi core-site.xml

fs.defaultFS :?這個屬性用來指定namenode的hdfs協(xié)議的文件系統(tǒng)通信地址,可以指定一個主機+端口,也可以指定為一個namenode服務(wù)(這個服務(wù)內(nèi)部可以有多臺namenode實現(xiàn)ha的namenode服務(wù)

hadoop.tmp.dir : hadoop集群在工作的時候存儲的一些臨時文件的目錄

fs.defaultFShdfs://hadoop1:9000hadoop.tmp.dir/home/hadoop/data/hadoopdata

?

C. hdfs-site.xml

[hadoop@hadoop1 hadoop]$ vi hdfs-site.xml

?dfs.namenode.name.dir:namenode數(shù)據(jù)的存放地點。也就是namenode元數(shù)據(jù)存放的地方,記錄了hdfs系統(tǒng)中文件的元數(shù)據(jù)。

?dfs.datanode.data.dir:datanode數(shù)據(jù)的存放地點。也就是block塊存放的目錄了。

dfs.replication:hdfs的副本數(shù)設(shè)置。也就是上傳一個文件,其分割為block塊后,每個block的冗余副本個數(shù),默認配置是3。

dfs.secondary.http.address:secondarynamenode 運行節(jié)點的信息,和 namenode 不同節(jié)點

dfs.namenode.name.dir/home/hadoop/data/hadoopdata/name為了保證元數(shù)據(jù)的安全一般配置多個不同目錄dfs.datanode.data.dir/home/hadoop/data/hadoopdata/datadatanode 的數(shù)據(jù)存儲目錄dfs.replication2HDFS 的數(shù)據(jù)塊的副本存儲個數(shù), 默認是3dfs.secondary.http.addresshadoop3:50090secondarynamenode 運行節(jié)點的信息,和 namenode 不同節(jié)點

D. mapred-site.xml

[hadoop@hadoop1 hadoop]$ cp mapred-site.xml.template mapred-site.xml
[hadoop@hadoop1 hadoop]$ vi mapred-site.xml

?mapreduce.framework.name:指定mr框架為yarn方式,Hadoop二代MP也基于資源管理系統(tǒng)Yarn來運行 。

mapreduce.framework.nameyarn

E. yarn-site.xml

[hadoop@hadoop1 hadoop]$ vi yarn-site.xml

?yarn.resourcemanager.hostname:yarn總管理器的IPC通訊地址

?yarn.nodemanager.aux-services:

yarn.resourcemanager.hostnamehadoop4yarn.nodemanager.aux-servicesmapreduce_shuffleYARN 集群為 MapReduce 程序提供的 shuffle 服務(wù)

?

F. slaves

[hadoop@hadoop1 hadoop]$ vi slaveshadoop1
hadoop2
hadoop3
hadoop4

4、把安裝包分別分發(fā)給其他的節(jié)點

重點強調(diào):每臺服務(wù)器中的hadoop安裝包的目錄必須一致, 安裝包的配置信息還必須保持一致
重點強調(diào):每臺服務(wù)器中的hadoop安裝包的目錄必須一致, 安裝包的配置信息還必須保持一致
重點強調(diào):每臺服務(wù)器中的hadoop安裝包的目錄必須一致, 安裝包的配置信息還必須保持一致

[hadoop@hadoop1 hadoop]$ scp -r ~/apps/hadoop-2.7.5/ hadoop2:~/apps/
[hadoop@hadoop1 hadoop]$ scp -r ~/apps/hadoop-2.7.5/ hadoop3:~/apps/
[hadoop@hadoop1 hadoop]$ scp -r ~/apps/hadoop-2.7.5/ hadoop4:~/apps/

注意:上面的命令等同于下面的命令

[hadoop@hadoop1 hadoop]$ scp -r ~/apps/hadoop-2.7.5/ hadoop@hadoop2:~/apps/

5、配置Hadoop環(huán)境變量

千萬注意:

1、如果你使用root用戶進行安裝。vi /etc/profile 即可 系統(tǒng)變量

2、如果你使用普通用戶進行安裝。vi ~/.bashrc 用戶變量

[hadoop@hadoop1 ~]$ vi .bashrcexport HADOOP_HOME=/home/hadoop/apps/hadoop-2.7.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:

使環(huán)境變量生效

[hadoop@hadoop1 bin]$ source ~/.bashrc

6、查看hadoop版本

[hadoop@hadoop1 bin]$ hadoop version
Hadoop 2.7.5
Subversion Unknown -r Unknown
Compiled by root on 2017-12-24T05:30Z
Compiled with protoc 2.5.0
From source with checksum 9f118f95f47043332d51891e37f736e9
This command was run using /home/hadoop/apps/hadoop-2.7.5/share/hadoop/common/hadoop-common-2.7.5.jar
[hadoop@hadoop1 bin]$

7、Hadoop初始化

注意:HDFS初始化只能在主節(jié)點上進行

[hadoop@hadoop1 ~]$ hadoop namenode -format

?View Code

8、啟動

A. 啟動HDFS

注意:不管在集群中的那個節(jié)點都可以

[hadoop@hadoop1 ~]$ start-dfs.sh
Starting namenodes on [hadoop1]
hadoop1: starting namenode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-namenode-hadoop1.out
hadoop3: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop3.out
hadoop2: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop2.out
hadoop4: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop4.out
hadoop1: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop1.out
Starting secondary namenodes [hadoop3]
hadoop3: starting secondarynamenode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-secondarynamenode-hadoop3.out
[hadoop@hadoop1 ~]$

B. 啟動YARN

注意:只能在主節(jié)點中進行啟動

[hadoop@hadoop4 ~]$ start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /home/hadoop/apps/hadoop-2.7.5/logs/yarn-hadoop-resourcemanager-hadoop4.out
hadoop2: starting nodemanager, logging to /home/hadoop/apps/hadoop-2.7.5/logs/yarn-hadoop-nodemanager-hadoop2.out
hadoop3: starting nodemanager, logging to /home/hadoop/apps/hadoop-2.7.5/logs/yarn-hadoop-nodemanager-hadoop3.out
hadoop4: starting nodemanager, logging to /home/hadoop/apps/hadoop-2.7.5/logs/yarn-hadoop-nodemanager-hadoop4.out
hadoop1: starting nodemanager, logging to /home/hadoop/apps/hadoop-2.7.5/logs/yarn-hadoop-nodemanager-hadoop1.out
[hadoop@hadoop4 ~]$

9、查看4臺服務(wù)器的進程

hadoop1

hadoop2

hadoop3

hadoop4

10、啟動HDFS和YARN的web管理界面

HDFS : http://192.168.123.102:50070
YARN :http://hadoop05:8088

疑惑:fs.defaultFS = hdfs://hadoop02:9000

解答:客戶單訪問HDFS集群所使用的URL地址

同時,HDFS提供了一個web管理界面 端口:50070

HDFS界面

點擊Datanodes可以查看四個節(jié)點

YARN界面

點擊Nodes可以查看節(jié)點

Hadoop的簡單使用

創(chuàng)建文件夾

在HDFS上創(chuàng)建一個文件夾/test/input

[hadoop@hadoop1 ~]$ hadoop fs -mkdir -p /test/input

查看創(chuàng)建的文件夾

[hadoop@hadoop1 ~]$ hadoop fs -ls /
Found 1 items
drwxr-xr-x - hadoop supergroup 0 2018-03-03 11:33 /test
[hadoop@hadoop1 ~]$ hadoop fs -ls /test
Found 1 items
drwxr-xr-x - hadoop supergroup 0 2018-03-03 11:33 /test/input
[hadoop@hadoop1 ~]$

上傳文件

創(chuàng)建一個文件words.txt

[hadoop@hadoop1 ~]$ vi words.txthello zhangsan
hello lisi
hello wangwu

上傳到HDFS的/test/input文件夾中

[hadoop@hadoop1 ~]$ hadoop fs -put ~/words.txt /test/input

?查看是否上傳成功

[hadoop@hadoop1 ~]$ hadoop fs -ls /test/input
Found 1 items-rw-r--r-- 2 hadoop supergroup 39 2018-03-03 11:37 /test/input/words.txt
[hadoop@hadoop1 ~]$

下載文件

將剛剛上傳的文件下載到~/data文件夾中

[hadoop@hadoop1 ~]$ hadoop fs -get /test/input/words.txt ~/data

查看是否下載成功

[hadoop@hadoop1 ~]$ ls data
hadoopdata words.txt
[hadoop@hadoop1 ~]$

運行一個mapreduce的例子程序:wordcount

[hadoop@hadoop1 ~]$ hadoop jar ~/apps/hadoop-2.7.5/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.5.jar wordcount /test/input /test/output

在YARN Web界面查看

查看結(jié)果

[hadoop@hadoop1 ~]$ hadoop fs -ls /test/output
Found 2 items-rw-r--r-- 2 hadoop supergroup 0 2018-03-03 11:42 /test/output/_SUCCESS-rw-r--r-- 2 hadoop supergroup 35 2018-03-03 11:42 /test/output/part-r-00000
[hadoop@hadoop1 ~]$ hadoop fs -cat /test/output/part-r-00000
hello 3
lisi 1
wangwu 1
zhangsan 1
[hadoop@hadoop1 ~]$

總結(jié)

以上是生活随笔為你收集整理的3台机器配置hadoop集群_Hadoop学习之路(三)Hadoop集群搭建和简单应用的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。