日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

hadoop1.2.1安装配置

發(fā)布時間:2025/6/15 18 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop1.2.1安装配置 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

環(huán)境:ubuntu13

使用的用戶為普通用戶。如:用戶ru

jdk安裝略

1、安裝ssh

(1)

Java代碼??
  • sudo?apt-get?install?openssh-server??
  • ?(2)配置ssh面密碼登錄

    Xml代碼??
  • $?ssh-keygen?-t?dsa?-P?''?-f?~/.ssh/id_dsa???
  • $?cat?~/.ssh/id_dsa.pub?>>?~/.ssh/authorized_keys??
  • ?2、下載安裝hadoop

    (1)下載hadoop-1.2.1-bin.tar.gz

    (2)修改權(quán)限

    如果擁有者不是ru:ru,使用

    Xml代碼??
  • chown?ru:ru?hadoop-1.2.1-bin.tar.gz??
  • (3)解壓

    ru用戶下

    Java代碼??
  • tar?-zxvf?hadoop-1.2.1-bin.tar.gz??
  • ?(4)將解壓后的hadoop拷貝到安裝目錄

    3、配置hadoop

    配置文件在$HADOOP_HOME/conf下

    ?(1)配置hadoop-env.sh,指定jdk的安裝路徑

    Xml代碼??
  • 添加jdk路徑??
  • #?The?java?implementation?to?use.??Required.??
  • ?export?JAVA_HOME=/home/ruge/soft/jdk1.7.0_45??
  • ?(2)修改hadoop的核心配置文件core-site.xml,配置namenode的地址和端口

    Xml代碼??
  • <configuration>??
  • ?????<property>??
  • ?????????<name>fs.default.name</name>??
  • ?????????<value>hdfs://localhost:9000</value>??
  • ?????</property>??
  • </configuration>??
  • ?

    Java代碼??
  • 這個還是很必要的,如果不配置臨時目錄,格式化hdfs是會在/tem目錄下創(chuàng)建臨時目錄但是tmp目錄重啟系統(tǒng)會清楚下面文件。這樣namenode就啟動不起來了??
  • ?<property>??
  • ?????????<name>hadoop.tmp.dir</name>??
  • ?????????<value>/home/ruge/hadoop/hadooptmpdir</value>??
  • ?????????<description>A?base?for?other?temporary?directories.</description>??
  • ?????</property>??
  • ??

    (3)修改hadoop的hdfs-site.xml,配置replication,即數(shù)據(jù)保存份數(shù)

    Java代碼??
  • <property>??
  • ?????????<name>dfs.replication</name>??
  • ?????????<value>1</value>??
  • </property>??
  • ?

    ?(4)修改hadoop的mapred-site.xml,配置jobtracker的地址和端口

    ?

    Java代碼??
  • <property>??
  • ?????????<name>mapred.job.tracker</name>??
  • ?????????<value>localhost:9001</value>??
  • </property>??
  • ?注:涉及到IP的地方如果是完全分布式集群,需要改成具體的IP

    4、格式化hadoop的文件系統(tǒng)HDFS

    ?

    Java代碼??
  • bin/hadoop?namenode?-format??
  • 5、啟動hadoop

    ?

    Java代碼??
  • bin/start-all.sh??
  • 6、驗證hadoop是否啟動成功

    ?

    • NameNode?-?http://localhost:50070/
    • JobTracker?-?http://localhost:50030/

    7、使用wordcount計算單詞數(shù)

    Java代碼??
  • (1)新建hdfs目錄,不是實際的系統(tǒng)文件目錄,只能使用hadoop?dfs?-ls?/XXX查看??
  • hadoop?dfs?-mkdir?/input??
  • ??
  • (2)將文件復(fù)制到新建的hdfs目錄??
  • hadoop?dfs?-put?./*.sh?/input/??
  • ??
  • 3)使用hadoop的wordcount計算單詞數(shù)??
  • hadoop?jar?hadoop-examples-1.2.1.jar?wordcount?/input?/output??
  • ??
  • 注:input?和?output都是hdfs文件目錄。不同的是input是需要分析的目錄,outpu是存放結(jié)果的目錄,且自動生成,不能手動創(chuàng)建??
  • ?

    ?

    第二部分,安裝hadoop集群:

    1,準備2個服務(wù)器,分別為

    機器名IP地址作用

    hadoop.main192.168.1.102NameNode,JobTracker,DataNode,TaskTracker

    hadoop.slave192.168.1.107DataNode,TaskTracker

    ?

    注:2臺主機必須使用相同的用戶名運行hadoop

    ?

    2,分別在這兩個主機上,按照單機版的安裝方法,安裝hadoop

    ?

    3,在/etc/hostname中修改主機名

    ? ?在/etc/hosts中配置主機名和IP地址度對應(yīng)關(guān)系

    ?

    ? ?分別在2臺主機中,運行以下命令:

    ? ?ping hadoop.main

    ? ?ping hadoop.slave

    ? ?修改/etc/hosts添加master和slave的ip和主機名

    ?

    4,將hadoop.main節(jié)點中的~/.ssh/id_rsa.pub文件拷貝到hadoop.slave節(jié)點的~/.ssh目錄下,然后在hadoop.slave的~/.ssh/目錄下運行:

    ? ?cat ./id_rsa.pub >> authorized_keys

    ?

    ? ?在hadoop.main節(jié)點中運行命令: ssh hadoop.slave

    ?

    5, 修改2臺主機的core-site.xml,配置HDFS的地址和端口號

    ? ?vi conf/core-site.xml

    ?

    ? ?<configuration>

    ? ?<property>

    ? ? ? ?<name>fs.default.name</name>

    ? ? ? ?<value>hdfs://hadoop.main:9000</value> ??

    ? ?</property>?

    ? ?</configuration>

    ?

    6,修改2臺主機的MapReduce的配置文件,配置的是JobTracker的地址和端口?

    ? ?vi conf/mapred-site.xml

    ?

    ? ?<configuration>

    ? ?<property>

    ? ? ? ?<name>mapred.job.tracker</name>

    ? ? ? ?<value>hadoop.main:9001</value>

    ? ?</property>

    ? ?</configuration>

    ?

    7,修改2臺主機中的hadoop配置文件masters

    ? ?hadoop.main

    ?

    8,修改2臺主機中的hadoop配置文件slaves

    ? ?hadoop.main

    ? ?hadoop.slave

    ?

    9,在haddop.main節(jié)點運行

    ? ?bin/hadoop namenode -format

    ?

    10,啟動hadoop

    ? ?bin/start-all.sh

    ?

    ?

    ?

    ps: datanode time configuration

    <property>

    ?<name>heartbeat.recheck.interval</name>

    ?<value>15</value>

    </property>

    總結(jié)

    以上是生活随笔為你收集整理的hadoop1.2.1安装配置的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。