日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

ubuntu14.04安装hadoop2.6.0(伪分布模式)

發布時間:2023/11/27 生活经验 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ubuntu14.04安装hadoop2.6.0(伪分布模式) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

版本:虛擬機下安裝的ubuntu14.04(64位),hadoop-2.6.0

下面是hadoop2.6.0的官方英文教程:

http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-common/SingleCluster.html#Pseudo-Distributed_Operation

hadoop下載地址:

http://mirror.bit.edu.cn/apache/hadoop/common/?

選擇hadoop-2.6.0.tar.gz這個二進制文件

安裝之前首先考慮的是hadoop的版本問題,hadoop-1x和hadoop-2x其實完全是兩個東西,生產環境下多采用hadoop1.2.1-這是一個穩定的版本。而hadoop-2x版本更適合做實驗。

其次hadoop2.6.0本地庫文件是64位的,而hadoop2.4.0本地庫是32位的。如果跟系統版本不匹配,運行hadoop例子時會出現:

WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable(這個錯誤也可能是其他原因導致的,我遇到的是其他原因,后面會說解決辦法)

最后是hadoop的三種模式:單機、偽分布、全分布。其中全分布模式至少需要三個節點。

1.安裝前準備

 
一、添加hadoop用戶組和hadoop用戶

創建hadoop用戶組:sudo addgroup hadoop
創建hadoop用戶: sudo adduser -ingroup hadoop hadoop



添加結果如下(其中通過系統設置設置hadoop賬戶類型為管理員):


進入hadoop用戶的賬號

二、安裝ssh
安裝命令:sudo apt-get install openssh-server
啟動服務:sudo /etc/init.d/ssh start

查看服務是否啟動:ps -e | grep ssh
 


設置免密碼登錄,生成私鑰和公鑰:ssh-keygen -t rsa -P ""



默認會在/home/hadoop/.ssh下生成兩個文件:id_rsa和id_rsa.pub,前者為私鑰,后者為公鑰。(.ssh文件是隱藏文件,CTRL+H 顯示隱藏文件)



將公鑰追加到authorized_keys中:cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
然后用ssh連接自己:ssh localhost。如果還是需要密碼,則沒有成功。




三、安裝java jdk和配置環境變量
  
  安裝openjdk命令:sudo apt-get install openjdk-7-jdk
  然而openjdk東西比較少,可以安裝oraclejdk:(推薦安裝Java-7-oracle)
sudo add-apt-repository ppa:webupd8team/java
sudo apt-get update
sudo apt-get install oracle-java7-installer

   最后通過:java -version查看是否安裝成功,并顯示java版本。

   ?查看JAVA_HOME位置:sudo update-alternatives --config java

  我的結果是/usr/lib/jvm/java-7-oracle/bin/jre/java。配置環境變量只寫到java-7-oracle。

   ?配置環境變量:

   命令:sudo gedit ~/.bashrc ? ? (配置.bashrc文件,或者.profile文件)

   在文件末尾加入(第二行JAVA_HOME和第三行HADOOP_INSTALL安裝路徑改成自己的)#HADOOP VARIABLES START

export JAVA_HOME=/usr/lib/jvm/java-7-oracleexport HADOOP_INSTALL=/usr/local/hadoopexport PATH=$PATH:$HADOOP_INSTALL/binexport PATH=$PATH:$HADOOP_INSTALL/sbinexport HADOOP_MAPRED_HOME=$HADOOP_INSTALLexport HADOOP_COMMON_HOME=$HADOOP_INSTALLexport HADOOP_HDFS_HOME=$HADOOP_INSTALLexport YARN_HOME=$HADOOP_INSTALLexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/nativeexport HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"#HADOOP VARIABLES END

?  使環境變量設置立即生效(重新注銷或者重啟都行):source ~/.bashrc

2.hadoop配置

    我的hadoop安裝路徑/usr/local/hadoop,下載的文件解壓縮后的文件名改成了hadoop。給hadoop文件夾及其文件夾所有文件提高權限!

   hadoop配置文件放在{HADOOP安裝路徑}/etc/hadoop文件夾下:需要修改hadoop-env.sh,core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml五個文件。

   1.hadoop-env.sh文件,在末尾添加(第一行JAVA_HOME和第二行HADOOP_PREFIX(hadoop安裝路徑)改成自己的)

export JAVA_HOME=/usr/lib/jvm/java-7-oracle
export HADOOP_PREFIX=/usr/local/hadoop
export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib:$HADOOP_PREFIX/lib/native"

    注意第三行的HADOOP_OPTS,如果沒有這一項運行會有:WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable的錯誤提示。如果你是32位的系統,運行hadoop2.6.0還需要重新編譯本地庫。本地庫路徑為:{hadoop安裝路徑}/lib/natives。

  查看本地庫版本命令:file /usr/loacl/hadoop/lib/native/libhadoop.so.1.0.0

  (32位)libhadoop.so.1.0.0: ELF 32-bit LSB shared object, Intel 80386, version 1 (SYSV), dynamically linked, not stripped

  (64位)libhadoop.so.1.0.0: ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, not stripped

  查看系統位數:uname -a,如果有x86_64就是64位的,沒有就是32位的。

  2.core-site.xml文件,在末尾<configuration></configuration>中間添加內容,最后:

<configuration><property>  <name>hadoop.tmp.dir</name>  <value>/usr/local/hadoop/tmp</value>  <description>Abase for other temporary directories.
</description>  </property><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property>
</configuration>

?

其中前一部分的hadoop.tmp.dir參數官方教程里沒有,如果沒有配置臨時文件會默認生成在:根目錄/tmp/hadoop-hadoop中,但是重啟系統后內容會重新刪掉,會有意想不到的問題出現!!注意修改路徑.

  3.mapred-site.xml是沒有的,有一個mapred-site.xml.template文件將其改名為mapred-site.xml就好。同樣在末尾<configuration></configuration>中間添加內容,最后:

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property> 
</configuration>

?

  4.yarn-site.xml文件,在末尾<configuration><!-- Site specific YARN configuration properties --></configuration>添加內容,最后:

<configuration>
<!-- Site specific YARN configuration properties --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property>
</configuration>

?

  5.hdfs-site.xml文件,在末尾<configuration></configuration>中間添加內容,最后:

<configuration>
<property>  <name>dfs.replication</name>  <value>1</value>  </property>  <property>  <name>dfs.namenode.name.dir</name>  <value>file:/usr/local/hadoop/dfs/name</value>  </property>  <property>  <name>dfs.datanode.data.dir</name>  <value>file:/usr/local/hadoop/dfs/data</value>  </property>  
</configuration>

?

  后面兩個dfs.name.dir,dfs.datanode.data.dir參數官網教程沒有(注意修改路徑),新建dfs和tmp文件夾并不必須,hadoop啟動后會自動生成。

3.hadoop運行

  • 格式化hdfs:/usr/local/hadoop$?bin/hdfs namenode -format
/usr/local/hadoop$ bin/hdfs namenode -format

當出現:INFO common.Storage: Storage directory /home/hadoop/tmp/dfs/name has been?successfully formatted.表示成功。只需要格式化一次。

  • hadoop啟動,執行:/usr/local/hadoop$ sbin/start-all.sh

輸入命令檢測:jps。如果成功啟動的話會有:jps,NameNode,DataNode,SecondaryNameNode,ResourceManager,NodeManager六個進程。 并且查看NameNode-http://localhost:50070/ ResourceManager-http://localhost:8088/

4.WordCount驗證

  • dfs下創建input目錄

  /usr/local/hadoop$?bin/hadoop fs -mkdir -p input

  • 運行例子:

(1)復制一些文件到HDFS目錄/usr/<usrname>下:/usr/local/hadoop$?hadoop fs -copyFromLocal README.txt input

(2)運行:/usr/local/hadoop$?hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.4.0-sources.jar org.apache.hadoop.examples.WordCount input output

(3)運行完畢后,查看單詞統計結果 ?/usr/local/hadoop$?hadoop fs -cat output/*

?

  • 關閉hadoop:/usr/local/hadoop$ bin/stop-all.sh
/usr/local/hadoop$ bin/stop-all.sh  

至此搭建完成。

轉載于:https://www.cnblogs.com/zhangduo/p/4592749.html

總結

以上是生活随笔為你收集整理的ubuntu14.04安装hadoop2.6.0(伪分布模式)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。