日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hadoop环境搭建(单机)

發布時間:2023/12/20 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Hadoop环境搭建(单机) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一、環境準備

操作系統:CentOS-6.5-x86_64-minimal.iso

安裝包:

百度云:

?

系統安裝,和靜態ip配置,和實現SSH免密登錄示例,看前面的文章:

https://blog.csdn.net/xingkongtianma01/article/category/7680374

https://blog.csdn.net/xingkongtianma01/article/category/7680389

關閉防火墻:

先執行 命令: service iptables stop? ?(臨時生效)

再執行 命令:chkconfig iptables off??(永久生效)

(如果不關閉防火墻,就需要 多次開放專用的端口,配置文件:/etc/sysconfig/iptables )

為了方便管理,更改下主機名HOSTNAME,可以不改(主機名稱更改之后,要重啟(reboot)才會生效)

改完主機名之后,要添加IP和主機名的映射關系(如果在配置文件中使用主機名,映射必須有)

?

二、服務器配置

1.在/usr目錄下創建安裝包存放目錄

2.將jdk和hadoop 的安裝包 導入進來

3.安裝JDK:

輸入命令:java -version,查看是否安裝了JDK,如果安裝了,但版本不適合的話,需要先卸載,再執行命令(rpm -ivh jdk-8u51-linux-x64.rpm),安裝我們的JDK

4.配置環境變量:

執行如下命令:

在最后位置添加 JAVA_HOME? JRE_HOME? CLASSPATH? PATH 的配置

export JAVA_HOME=/usr/java/jdk1.8.0_51/ export JRE_HOME=/usr/java/jdk1.8.0_51//jre export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/libPATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin export PATH

編輯完之后,執行命令??source /etc/profile? ??使配置生效

輸入命令:java -version? ? 查看剛剛的JDK配置是否生效

5.1? 安裝HADOOP:

解壓hadoop的安裝包

創建一個hadoop文件夾

將剛剛解壓的hadoop安裝文件夾移動到hadoop文件夾中并重命名

再執行如下命令:

在最后位置添加 HADOOP?的相關配置

export HADOOP_HOME=/usr/soft2019/hadoop/hadoop3.1 export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"PATH=$PATH:$HADOOP_HOME/bin export PATH

編輯完之后,執行命令??source /etc/profile? ??使配置生效

5.2? 在root目錄下建立一些文件夾

mkdir /root/hadoop mkdir /root/hadoop/tmp mkdir /root/hadoop/var mkdir /root/hadoop/dfs mkdir /root/hadoop/dfs/name mkdir /root/hadoop/dfs/data

6.1? 切換到??/usr/soft2019/hadoop/hadoop3.1/etc/hadoop/

6.2? 修改 core-site.xml

執行命令? vi?core-site.xml,在<configuration>添加

<property><name>hadoop.tmp.dir</name><value>/root/hadoop/tmp</value><description>Abase for other temporary directories.</description></property><property><name>fs.default.name</name><value>hdfs://nodeHa:9000</value></property>

nodeHa就是我們前面配置的HOSTNAME

6.3? 修改 hadoop-env.sh

執行命令? vi?hadoop-env.sh,將${JAVA_HOME}?修改為自己的JDK路徑

6.4? 修改?hdfs-site.xml

執行命令? vi?hdfs-site.xml,在<configuration>添加

<property><name>dfs.name.dir</name><value>/root/hadoop/dfs/name</value><description>Path on the local filesystem where theNameNode stores the namesp ace and transactions logs persistently.</description> </property> <property><name>dfs.data.dir</name><value>/root/hadoop/dfs/data</value><description>Comma separated list of paths on the localfilesystem of a DataNo de where it should store its blocks.</description> </property> <property><name>dfs.replication</name><value>2</value> </property> <property><name>dfs.permissions</name><value>false</value><description>need not permissions</description> </property>

6.5? 修改?mapred-site.xml

執行命令? vi?mapred-site.xml,在<configuration>添加

<property><name>mapred.job.tracker</name><value>nodeHa:9001</value> </property> <property><name>mapred.local.dir</name><value>/root/hadoop/var</value> </property> <property><name>mapreduce.framework.name</name><value>yarn</value> </property>

到此 Hadoop 的單機模式的配置就完成了。

?

7.1? 切換到??/usr/soft2019/hadoop/hadoop3.1/bin/

執行命令? ./hadoop namenode -format?,初始化hadoop

7.2? ?執行命令? jps? 查看目前啟動的進程

未啟動hadoop,所以沒有hadoop相關的進程

?

8.1? 切換到??/usr/soft2019/hadoop/hadoop3.1/sbin/

8.2? 修改?start-dfs.sh

執行命令? vi start-dfs.sh,在前面?添加如下代碼

HDFS_DATANODE_USER=root HADOOP_SECURE_DN_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root

執行命令? ./start-dfs.sh??啟動HDFS

8.3? 修改?start-yarn.sh

執行命令? vi start-yarn.sh,在前面?添加如下代碼

執行命令? ./start-yarn.sh??啟動YARN

(或者不執行? ./start-dfs.sh? 和? ./start-yarn.sh? 命令,而是直接執行命令 ./start-all.sh? 一次性啟動多個hadoop相關的進程)

8.4? 執行命令? jps? 查看目前啟動的進程

8.5? 在瀏覽器中輸入??http://192.168.1.77:8088/cluster

8.6? 在瀏覽器中輸入??http://192.168.1.77:9870

到此。hadoop單機環境搭建就完成了。看似簡單,但實際配置起來還是要認真仔細。勤能補拙是良訓,我們一起加油!

總結

以上是生活随笔為你收集整理的Hadoop环境搭建(单机)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。