日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

hadoop的安装-配置文件修改

發布時間:2024/4/13 编程问答 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop的安装-配置文件修改 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Hadoop的安裝

集群的規劃:

服務器IP192.168.252.150192.168.252.151192.168.252.152
主機名node01node02node03
NameNode
SecondaryNameNode
dataNode
ResourceManager
NodeManager
  • 上傳并解壓

  • 修改配置文件

  • 分發安裝包

  • 格式化HDFS

  • 啟動集群

  • 1. 上傳并解壓

  • 上傳壓縮包到/export/software目錄

  • cd /export/software

  • tar xzvf hadoop-3.1.1.tar.gz -C ../servers

  • 2. 修改配置文件

    首先配置ip映射

    vim /etc/hosts

    因為需要遠程連接,所以這里ip要設置為本機ip,不能設置成127.0.0.1

    192.168.252.150 hadoop

    ?

    (1).修改hadoop解壓目錄下的?etc/hadoop/hadoop-env.sh文件

    指定java目錄

    export JAVA_HOME=/usr/local/jdk1.8.0_131

    (2)修改etc/hadoop/core-site.xml:

    首先要創建tmp目錄,用于數據持久化

    <?xml version="1.0" encoding="UTF-8"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration><!-- 指定HDFS老大(namenode)的通信地址 --><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property><!-- 臨時文件存儲目錄 --><property><name>hadoop.tmp.dir</name><value>/usr/local/hadoop/hadoop-3.1.1/datas/tmp</value></property> </configuration>

    3)修改etc/hadoop/hdfs-site.xml文件

    <?xml version="1.0" encoding="UTF-8"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration><property><name>dfs.namenode.name.dir</name><value>/usr/local/hadoop/hadoop-3.1.1/datas/namenode</value> </property><property><name>dfs.datanode.data.dir</name><value>/usr/local/hadoop/hadoop-3.1.1/datas/datanode</value> </property><property><!-- 由于只有一臺機器,hdfs的副本數就指定為1 --><name>dfs.replication</name><value>1</value></property><property><name>dfs.datanode.http.address</name><value>0.0.0.0:50075</value></property><property><name>dfs.permissions.enabled</name><value>false</value></property> </configuration>

    (4)修改etc/hadoop/mapred-site.xml文件

    <?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration><property><name>mapred.job.tracker</name><value>localhost:9001</value></property><property><name>mapred.child.tmp</name><value>/usr/local/hadoop/hadoop-3.1.1/datas/tmp</value></property> </configuration> # The java implementation to use. By default, this environment # variable is REQUIRED on ALL platforms except OS X! export JAVA_HOME=/usr/local/software/jdk1.8.0_151# Some parts of the shell code may do special things dependent upon # the operating system. We have to set this here. See the next # section as to why.... export HADOOP_OS_TYPE=${HADOOP_OS_TYPE:-$(uname -s)}# Under certain conditions, Java on OS X will throw SCDynamicStore errors # in the system logs. # See HADOOP-8719 for more information. If one needs Kerberos # support on OS X, one will want to change/remove this extra bit. case ${HADOOP_OS_TYPE} inDarwin*)export HADOOP_OPTS="${HADOOP_OPTS} -Djava.security.krb5.realm= "export HADOOP_OPTS="${HADOOP_OPTS} -Djava.security.krb5.kdc= "export HADOOP_OPTS="${HADOOP_OPTS} -Djava.security.krb5.conf= ";; esacexport HDFS_NAMENODE_USER="root" export HDFS_DATANODE_USER="root" export HDFS_SECONDARYNAMENODE_USER="root" export YARN_RESOURCEMANAGER_USER="root" export YARN_NODEMANAGER_USER="root" <?xml version="1.0"?> <configuration> <!-- 設置不檢查虛擬內存的值,不然內存不夠會報錯 --><property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value></property> <!-- yarn上面運行一個任務,最少需要1.5G內存,虛擬機沒有這么大的內存就調小這個值,不然會報錯 --><property><name>yarn.app.mapreduce.am.resource.mb</name><value>128</value></property> </configuration> <?xml version="1.0" encoding="UTF-8"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration><property><name>dfs.namenode.name.dir</name><value>/usr/local/hadoop/hadoop-3.1.1/datas/namenode</value> </property><property><name>dfs.datanode.data.dir</name><value>/usr/local/hadoop/hadoop-3.1.1/datas/datanode</value> </property><property><!-- 由于只有一臺機器,hdfs的副本數就指定為1 --><name>dfs.replication</name><value>1</value></property><property><name>dfs.datanode.http.address</name><value>0.0.0.0:50075</value></property><property><name>dfs.permissions.enabled</name><value>false</value></property> </configuration>

    ?

    4、安裝Hadoop分布式文件系統

    (1)格式化文件系統:

    bin/hdfs namenode -format

    (2)啟動NameNode進程和DateNode進程

    sbin/start-all.sh

    (3)查看hadoop進程是否正常啟動

    ps -ef|grep hadoop

    5、在web瀏覽器中訪問NameNode的web接口,默認地址為:http://localhost:50075/

    6. 格式化HDFS

    • 為什么要格式化HDFS

      • HDFS需要一個格式化的過程來創建存放元數據(image, editlog)的目錄

        bin/hdfs namenode -format

        ?

    總結

    以上是生活随笔為你收集整理的hadoop的安装-配置文件修改的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。