日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

linux下hadoop 环境搭建

發布時間:2023/12/20 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 linux下hadoop 环境搭建 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
  • 準備 3臺linux 分別hostname為: node-1,node-2,node-3

    vi /etc/sysconfig/network HOSTNAME=yourhostname#保存 hostname yourhostname hostname
  • 安裝 JDK 并配置 環境變量

  • 通過xshell等ssh 工具 查看3臺機子的時間是否一致(需通過成一致的時間)

  • xshell 查看-撰寫-撰寫窗口-全部會話(可以在敲一遍命名 在所有窗口生效)

  • Vi /etc/hosts

    127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4::1 localhost localhost.localdomain localhost6 localhost6.localdomain6192.168.1.220 node-1192.168.1.222 node-2192.168.1.223 node-3
  • 免密登入配置:

    ssh-keygen -t rsa(4個空格) 生成 id_rsa(公鑰) id_rsa..pub(公鑰)cd ~/.ssh/scp id_rsa.pub root@ip:/usr/local/cd /usr/local/cat id_rsa.pub >> ~/.ssh/authorized_keys
  • 解壓hadoop安裝包tar -zxvf hadoop-3.3.1.tar.gz

  • vi /usr/local/hadoop-3.3.1/etc/hadoop/hadoop-env.xml
    #配置jdk JAVA_HOME=/usr/local/jdk1.8.0_301

  • vi /usr/local/hadoop-3.3.1/etc/hadoop/core-site.xml

    <configuration> <property> <name>fs.default.name</name> <value>hdfs://node-1:9000</value> </property> ##臨時文件存放位置<property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/tmp</value> </property> </configuration>
  • vi /usr/local/hadoop-3.3.1/etc/hadoop/hdfs-site.xml

    <configuration><property> <name>dfs.replication</name> <value>2</value></property> <property> <name>dfs.namenode.secondary.http-address</name> <value>node-2:50090</value> </property><property> <name>dfs.datanode.handler.count</name> <value>50</value></property> </configuration>
  • vi /usr/local/hadoop-3.3.1/etc/hadoop/mapred-site.xml

    <configuration><property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
  • vi /usr/local/hadoop-3.3.1/etc/hadoop/yarn-site.xml

    <configuration><property> <name>yarn.resourcemanager.hostname</name> <value>node-1</value> </property> <property><name>yarn.log-aggregation-enable</name><value>true</value></property><property><name>yarn.log-aggregation.retain-seconds</name><value>604800</value></property><property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property></configuration>
  • vi /usr/local/hadoop-3.3.1/etc/hadoop/workers

    node-1 node-2 node-3
  • 配置hadoop環境變量(vi /etc/profile)

    export HADOOP_HOME=/usr/local/hadoop-3.3.1 export PATH=$PATH:$HADOOP_HOME/bin: $HADOOP_HOME/sbin
  • 復制: scp -r /usr/local/hadoop-3.3.1/ root@node-2:/usr/local/

  • scp -r /usr/local/hadoop-3.3.1/ root@node-3:/usr/local/

  • 復制: scp –r /etc/profile root@node-2:/etc/

  • scp –r /etc/profile root@node-3:/etc/

  • 格式化 hadoop 首次啟動需要格式化是進行文件系統的初始化操作,創建一些自己需要的文件 啟動后,不在需要格式化 必須在主節點上(主機器)操作 hdfs namenode -format 或 hadoop namenode -format
  • 一鍵啟動 主機器操作許配置 slaves 和 ssh 免密登入 進入 hadoop 下 sbin 文件夾下 start-dfs.sh(sdfs 集群)和 start-yarn.sh(yarn 集群) 或者 start-all.sh(sdfs 和 yarn 集群同時啟動) //啟動歷史 mr-jobhistory-daemon.sh start historyserver 啟動時報錯: 修改配置21和22
  • 查看啟動結果 jps 命令 13248 NameNode 13345 DataNode 13610 ResourceManager 13757 Jps 13711 NodeManager提示 一下標識成功或者訪問 ip:50070 頁面
  • 將start-dfs.sh,stop-dfs.sh兩個文件頂部添加以下參數

    #!/usr/bin/env bash HDFS_DATANODE_USER=root HADOOP_SECURE_DN_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root
  • start-yarn.sh,stop-yarn.sh

    #!/usr/bin/env bash YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=yarn YARN_NODEMANAGER_USER=root
  • 如果啟動后沒有datenode節點要刪除 core-site.xml中的路徑在執行格式化

  • 通過瀏覽器http://ip:8080訪問頁面

  • java操作HDFS

    //連接hdfs configuration conf =new Configuration(); conf.set(fs.defaultFs,"hdfs://node-1:9000")//設置用戶身份 方式1:System.setProperty("HADOOP_USER_NAME","root") 方式2:FileSystem fs=FileSystem.get(new URI("hdfs://node-1:9000"),conf,"root"); FileSystem fs=FileSystem.get(conf); //操作 fs.xxxx() fs.close() ---------------------------獲取遍歷文件-------- RemoteInterator<LocatedFIleStatus> list=fs.listFIles(path,true); while(list.hasnext()){LocatedFIleStatus f=list.next()}; --------------------------上傳文件流操作--------------------------------------------- FSDataOutputStream out=fs.create(new Path(文件),true); FIleInputStream in=new FIleInputstream("D://文件"); IOUtils.copy(in, out ); ---------------------------------------------------------------------------------
  • 總結

    以上是生活随笔為你收集整理的linux下hadoop 环境搭建的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。