日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hadoop快速入门——第一章、认识Hadoop

發布時間:2024/8/26 编程问答 43 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Hadoop快速入门——第一章、认识Hadoop 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

🤗Hadoop第一章:認識Hadoop與環境測試🤗

簡介:

Hadoop 是一個用 Java 語言實現的軟件框架,運行在 Linux 生產平臺上是非常理想的,同時也可以運行在其他平臺上,如“Windows”等 用戶可以輕松地在 Hadoop 上開發和運行處理海量數據的應用程序。

它主要有以下 5 個優點

  • 高可靠性
  • 高擴展性
  • 高效性
  • 高容錯性
  • 低成本

1、Java環境配置

下載包鏈接:

查詢JDK是否安裝

java javac

如果安裝移除即可

yum remove java -y

創建存儲文件夾【/opt/soft與/opt/data】備用

cd /opt mkdir soft mkdir data

上傳安裝包(放在opt下面,解壓出來后修改名稱為jdk方便操作)

進入到【soft】文件夾下解壓安裝包

tar -zxvf jdk-8u161-linux-x64.tar.gz

解壓后查詢一下【ls】

為了操作方便,改一下文件夾名稱:

mv jdk1.8.0_161 jdk

效果:

將java的環境變量配置到【/etc/profile.d/hadoop-eco.sh】

/etc/profile.d/hadoop-eco.sh

配置腳本文件,并通過【:wq】進行保存

JAVA_HOME=/opt/jdk PATH=$JAVA_HOME/bin:$PATH

?

通過【cat】命令進行查驗:

cat /etc/profile.d/hadoop-eco.sh

執行腳本

source /etc/profile.d/hadoop-eco.sh

java -version java javac

javac能執行,代表肯定配置好了。

2、配置SSH免登陸?

ssh-keygen -t rsa

出現讓輸入就直接回車就行?

將秘鑰拷貝到本機

ssh-copy-id -i root@localhost

需要輸入【yes】與【root密碼】?

ssh驗證:

ssh 'root@localhost'

3、Hadoop安裝

上傳【Hadoop】的壓縮包到opt下,并解壓

tar -zxvf hadoop-2.7.3.tar.gz

為了操作方便,更換名稱:

mv hadoop-2.7.3 hadoop

繼續編輯【vi /etc/profile.d/hadoop-eco.sh】文件:

HADOOP_HOME=/opt/hadoop PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

執行腳本:

source /etc/profile.d/hadoop-eco.sh

手動創建工作目錄:

mkdir -p /opt/hadoop-record/name mkdir -p /opt/hadoop-record/secondary mkdir -p /opt/hadoop-record/data mkdir -p /opt/hadoop-record/tmp ls ls /opt/hadoop-record/

編寫配置六個文件:

1、修改【hadoop/etc/hadoop/hadoop-env.sh?】(JAVA_HOME)

vi hadoop/etc/hadoop/hadoop-env.sh

2、修改【yarn-env.sh】文件

vi hadoop/etc/hadoop/yarn-env.sh

3、 修改【core-site.xml】文件,在【configuration】節點下添加以下子節點信息

vi hadoop/etc/hadoop/core-site.xml

添加以下內容,復制的時候注意,先輸入【i】再粘貼

<!-- 指定HDFS的通訊地址 --><property><name>fs.default</name><value>hdfs://localhost:9000</value></property><!-- 指定Hadoop運行時產生文件的存儲位置 --><property><name>hadoop.tmp.dir</name><value>file://opt/hadoop-record/tmp</value></property>

4、配置【hadoop/etc/hadoop/hdfs-site.xml】文件?

vi hadoop/etc/hadoop/hdfs-site.xml

在【configuration】節點下添加以下內容:

<!-- 數據備份數量 --><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.namenode.name.dir</name><value>file:///opt/hadoop-record/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:///opt/hadoop-record/data</value></property>

5、配置【hadoop/etc/hadoop/mapred-site.xml.template】文件

由于需要的是xml文件,不是template文件,故而需要修改名稱。

mv hadoop/etc/hadoop/mapred-site.xml.template hadoop/etc/hadoop/mapred-site.xml

修改成功

編寫:

vi hadoop/etc/hadoop/mapred-site.xml

?輸入以下內容:

<!-- mapreduce運行的平臺,默認Local --><property><name>mapreduce.framework.name</name><value>yarn</value></property>

6、配置【yarn-site.xml】文件

vi hadoop/etc/hadoop/yarn-site.xml

添加以下編碼:

<!-- resourcemanager所在機器 --><property><name>yarn.resourcemanager.hostname</name><value>localhost</value></property><!-- 所需要的服務 --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property>

效果如下:

3、啟動Hadoop

格式化【namenode】

hdfs namenode -format

dfs啟動

start-dfs.sh jps

啟動yarn

start-yarn.sh jps

4、編寫測試文件:

cd /opt/data vi hello

通過【:wq】保存文件

上傳測試文件到根目錄:

hadoop fs -put hello /hello

cd /opt/hadoop/share/hadoop/mapreduce/ hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /hello /out

運行完成:

hadoop fs -cat /out/part-r-00000

由于每個單詞都寫了一個,故而確認分析正確,再次修改hello文件進行測試

由于根目錄的hello文件已存在,換成hello1即可?

?

?out這里也加上一個【1】

hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /hello1 /out1

機器說是24個,咱們自己數一數,發現的確是【24】個。

實驗完畢。

總結

以上是生活随笔為你收集整理的Hadoop快速入门——第一章、认识Hadoop的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。