日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 运维知识 > linux >内容正文

linux

linux下hadoop 环境搭建

發(fā)布時間:2023/12/20 linux 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 linux下hadoop 环境搭建 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
  • 準(zhǔn)備 3臺linux 分別hostname為: node-1,node-2,node-3

    vi /etc/sysconfig/network HOSTNAME=yourhostname#保存 hostname yourhostname hostname
  • 安裝 JDK 并配置 環(huán)境變量

  • 通過xshell等ssh 工具 查看3臺機(jī)子的時間是否一致(需通過成一致的時間)

  • xshell 查看-撰寫-撰寫窗口-全部會話(可以在敲一遍命名 在所有窗口生效)

  • Vi /etc/hosts

    127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4::1 localhost localhost.localdomain localhost6 localhost6.localdomain6192.168.1.220 node-1192.168.1.222 node-2192.168.1.223 node-3
  • 免密登入配置:

    ssh-keygen -t rsa(4個空格) 生成 id_rsa(公鑰) id_rsa..pub(公鑰)cd ~/.ssh/scp id_rsa.pub root@ip:/usr/local/cd /usr/local/cat id_rsa.pub >> ~/.ssh/authorized_keys
  • 解壓hadoop安裝包tar -zxvf hadoop-3.3.1.tar.gz

  • vi /usr/local/hadoop-3.3.1/etc/hadoop/hadoop-env.xml
    #配置jdk JAVA_HOME=/usr/local/jdk1.8.0_301

  • vi /usr/local/hadoop-3.3.1/etc/hadoop/core-site.xml

    <configuration> <property> <name>fs.default.name</name> <value>hdfs://node-1:9000</value> </property> ##臨時文件存放位置<property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/tmp</value> </property> </configuration>
  • vi /usr/local/hadoop-3.3.1/etc/hadoop/hdfs-site.xml

    <configuration><property> <name>dfs.replication</name> <value>2</value></property> <property> <name>dfs.namenode.secondary.http-address</name> <value>node-2:50090</value> </property><property> <name>dfs.datanode.handler.count</name> <value>50</value></property> </configuration>
  • vi /usr/local/hadoop-3.3.1/etc/hadoop/mapred-site.xml

    <configuration><property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
  • vi /usr/local/hadoop-3.3.1/etc/hadoop/yarn-site.xml

    <configuration><property> <name>yarn.resourcemanager.hostname</name> <value>node-1</value> </property> <property><name>yarn.log-aggregation-enable</name><value>true</value></property><property><name>yarn.log-aggregation.retain-seconds</name><value>604800</value></property><property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property></configuration>
  • vi /usr/local/hadoop-3.3.1/etc/hadoop/workers

    node-1 node-2 node-3
  • 配置hadoop環(huán)境變量(vi /etc/profile)

    export HADOOP_HOME=/usr/local/hadoop-3.3.1 export PATH=$PATH:$HADOOP_HOME/bin: $HADOOP_HOME/sbin
  • 復(fù)制: scp -r /usr/local/hadoop-3.3.1/ root@node-2:/usr/local/

  • scp -r /usr/local/hadoop-3.3.1/ root@node-3:/usr/local/

  • 復(fù)制: scp –r /etc/profile root@node-2:/etc/

  • scp –r /etc/profile root@node-3:/etc/

  • 格式化 hadoop 首次啟動需要格式化是進(jìn)行文件系統(tǒng)的初始化操作,創(chuàng)建一些自己需要的文件 啟動后,不在需要格式化 必須在主節(jié)點上(主機(jī)器)操作 hdfs namenode -format 或 hadoop namenode -format
  • 一鍵啟動 主機(jī)器操作許配置 slaves 和 ssh 免密登入 進(jìn)入 hadoop 下 sbin 文件夾下 start-dfs.sh(sdfs 集群)和 start-yarn.sh(yarn 集群) 或者 start-all.sh(sdfs 和 yarn 集群同時啟動) //啟動歷史 mr-jobhistory-daemon.sh start historyserver 啟動時報錯: 修改配置21和22
  • 查看啟動結(jié)果 jps 命令 13248 NameNode 13345 DataNode 13610 ResourceManager 13757 Jps 13711 NodeManager提示 一下標(biāo)識成功或者訪問 ip:50070 頁面
  • 將start-dfs.sh,stop-dfs.sh兩個文件頂部添加以下參數(shù)

    #!/usr/bin/env bash HDFS_DATANODE_USER=root HADOOP_SECURE_DN_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root
  • start-yarn.sh,stop-yarn.sh

    #!/usr/bin/env bash YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=yarn YARN_NODEMANAGER_USER=root
  • 如果啟動后沒有datenode節(jié)點要刪除 core-site.xml中的路徑在執(zhí)行格式化

  • 通過瀏覽器http://ip:8080訪問頁面

  • java操作HDFS

    //連接hdfs configuration conf =new Configuration(); conf.set(fs.defaultFs,"hdfs://node-1:9000")//設(shè)置用戶身份 方式1:System.setProperty("HADOOP_USER_NAME","root") 方式2:FileSystem fs=FileSystem.get(new URI("hdfs://node-1:9000"),conf,"root"); FileSystem fs=FileSystem.get(conf); //操作 fs.xxxx() fs.close() ---------------------------獲取遍歷文件-------- RemoteInterator<LocatedFIleStatus> list=fs.listFIles(path,true); while(list.hasnext()){LocatedFIleStatus f=list.next()}; --------------------------上傳文件流操作--------------------------------------------- FSDataOutputStream out=fs.create(new Path(文件),true); FIleInputStream in=new FIleInputstream("D://文件"); IOUtils.copy(in, out ); ---------------------------------------------------------------------------------
  • 總結(jié)

    以上是生活随笔為你收集整理的linux下hadoop 环境搭建的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。