日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

hadoop 集群配置

發布時間:2025/4/14 编程问答 50 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop 集群配置 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

hadoop是一個能夠對大量數據進行分布式處理的軟件框架,實現了Google的MapReduce編程模型和框架,能夠把應用程序分割成許多的 小的工作單元,并把這些單元放到任何集群節點上執行。在MapReduce中,一個準備提交執行的應用程序稱為“作業(job)”,而從一個作業劃分出 得、運行于各個計算節點的工作單元稱為“任務(task)”。此外,Hadoop提供的分布式文件系統(HDFS)主要負責各個節點的數據存儲,并實現了 高吞吐率的數據讀寫。

  在分布式存儲和分布式計算方面,Hadoop都是用從/從(Master/Slave)架構。在一個配置完整的集群上,想讓Hadoop這頭大 象奔跑起來,需要在集群中運行一系列后臺(deamon)程序。不同的后臺程序扮演不用的角色,這些角色由NameNode、DataNode、 Secondary NameNode、JobTracker、TaskTracker組成。其中NameNode、Secondary??NameNode、JobTracker運行在Master節點上,而在每個Slave節點上,部署一個DataNode和TaskTracker,以便 這個Slave服務器運行的數據處理程序能盡可能直接處理本機的數據。對Master節點需要特別說明的是,在小集群中,Secondary??NameNode可以屬于某個從節點;在大型集群中,NameNode和JobTracker被分別部署在兩臺服務器上。

?

master配置

?/usr/local/hadoop/conf下:

?

修改 masters 文件為: ?master

?

修改slaves 文件為:(本人有2從)

slave1

slave2

?

修改 core-site.xml 文件:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
  <property>#臨時文件目錄
    <name>hadoop.tmp.dir</name>
    <value>/usr/local/src/hadoop/tmp</value>
  </property>
  <property>#namenode配置
    <name>fs.default.name</name>
    <value>hdfs:://192.168.157.64:9000</value>
  </property>
</configuration>

?

修改mapred-site.xml文件 ?mapreduce的jobtracker

<property>
  <name>mapred.job.tracker</name>
  <value>http:://192.168.157.64:9001</value>
</property>

?

修改hdfs-site.xml ? 數據在hdfs存儲的副本數(默認是3)

?<property>
  <name>hdfs.replication</name>
  <value>3</value>
</property>

?

修改hadoop-env.sh

在最后一行添加 (自己的java目錄)

export JAVA_HOME=/usr/local/src/jdk1.6.0_45?

?

修改/etc/hosts文件

master_ip ? master

slave_ip ? slave

?

修改/etc/sysconfig/network

NETWORKING=yes

HOSTNAME=master

?

?復制master的hadoop目錄到自己的slave

scp -rp hadoop 192.168.XX.XX:/usr/local/src/?

中途需要確認鏈接、輸入salve的root密碼

?

修改slave的/etc/hosts、/etc/sysconfig/network

?

關閉防火墻、selinux

/etc/init.d/iptables stop

setenforce 0 ? (檢查 getenforce ? 輸出Permissive)

?

?

建立互通鏈接

ssh-keygen ?一路確定

cd ~/.ssh ? ? 進入隱藏文件

master ?執行 ?cat id_rsa.pub > authorized_keys

復制 slave 下的 slave 的公鑰(id_rsa.pub)到master的authorized_keys

master 下執行?

scp -rp?authorized_keys root@slave:~/.ssh/

?

master 執行

cd /usr/local/src/hadoop/bin/

./hasoop namenode -format ? 初始化namenode

./start-all.sh?    動起來

?

使用jps查看

如果 ? bash: jps: command not found... ?

?vim /etc/profile 在最后一行寫上

PATH="/usr/local/src/jdk1.6.0_45/bin:$PATH"

/usr/local/src/jdk1.6.0_45/bin ?自己的java

source /etc/profile

jps

轉載于:https://www.cnblogs.com/aifengguo/p/7398389.html

總結

以上是生活随笔為你收集整理的hadoop 集群配置的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。