日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

hadoop 计算几点 主节点_01-Hadoop的介绍

發布時間:2023/12/10 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop 计算几点 主节点_01-Hadoop的介绍 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Hadoop的介紹

  • Hadoop最早起源于Nutch.Nutch的設計目標是構建一個大型的全網搜索引擎,包括網頁抓取、索引、查詢等功能,但隨著抓取網頁數量的增加,遇到了嚴重的可擴展性問題——如何解決數十億網頁的存儲和索引問題.
  • 2003年、2004年谷歌發表的兩篇論文為該問題提供了可行的解決方案.
    ——分布式文件系統(GFS),可用于處理海量網頁的存儲
    ——分布式計算框架MAPREDUCE,可用于處理海量網頁的索引計算問題.
  • Nutch的開發人員完成了相應的開源實現HDFS和MAPREDUCE,并從Nutch中剝離成為獨立項目HADOOP,到2008年1月,HADOOP成為Apache頂級項目.
    狹義上來說,hadoop就是單獨指代hadoop這個軟件,
    HDFS :分布式文件系統
    MapReduce : 分布式計算系統
    廣義上來說,hadoop指代大數據的一個生態圈,包括很多其他的軟件
  • 1.hadoop的歷史版本介紹

    1.x版本系列:hadoop版本當中的第二代開源版本,主要修復0.x版本的一些bug等2.x版本系列:架構產生重大變化,引入了yarn平臺等許多新特性3.x版本系列: 加入多namenoode新特性

    hadoop三大公司發型版本介紹

    免費開源版本apache:


    優點:擁有全世界的開源貢獻者,代碼更新迭代版本比較快,缺點:版本的升級,版本的維護,版本的兼容性,版本的補丁都可能考慮不太周到,apache所有軟件的下載地址(包括各種歷史版本):

    免費開源版本hortonWorks:


    hortonworks主要是雅虎主導Hadoop開發的副總裁,帶領二十幾個核心成員成立Hortonworks,核心產品軟件HDP(ambari),HDF免費開源,并且提供一整套的web管理界面,供我們可以通過web界面管理我們的集群狀態,web管理界面軟件HDF網址(
    )

    軟件收費版本ClouderaManager:


    cloudera主要是美國一家大數據公司在apache開源hadoop的版本上,通過自己公司內部的各種補丁,實現版本之間的穩定運行,大數據生態圈的各個版本的軟件都提供了對應的版本,解決了版本的升級困難,版本兼容性等各種問題

    hadoop的架構模型(1.x,2.x的各種架構模型介紹)

    1.x的版本架構模型介紹

    文件系統核心模塊:NameNode:集群當中的主節點,管理元數據(文件的大小,文件的位置,文件的權限),主要用于管理集群當中的各種數據secondaryNameNode:主要能用于hadoop當中元數據信息的輔助管理DataNode:集群當中的從節點,主要用于存儲集群當中的各種數據數據計算核心模塊:JobTracker:接收用戶的計算請求任務,并分配任務給從節點TaskTracker:負責執行主節點JobTracker分配的任務

    2、2.x的版本架構模型介紹

    第一種:NameNode與ResourceManager單節點架構模型

    文件系統核心模塊:

    NameNode:集群當中的主節點,主要用于管理集群當中的各種數據secondaryNameNode:主要能用于hadoop當中元數據信息的輔助管理DataNode:集群當中的從節點,主要用于存儲集群當中的各種數據

    數據計算核心模塊:

    ResourceManager:接收用戶的計算請求任務,并負責集群的資源分配NodeManager:負責執行主節點APPmaster分配的任務

    第二種:NameNode單節點與ResourceManager高可用架構模型

    文件系統核心模塊:

    NameNode:集群當中的主節點,主要用于管理集群當中的各種數據secondaryNameNode:主要能用于hadoop當中元數據信息的輔助管理DataNode:集群當中的從節點,主要用于存儲集群當中的各種數據

    數據計算核心模塊:

    ResourceManager:接收用戶的計算請求任務,并負責集群的資源分配,以及計算任務的劃分,通過zookeeper實現ResourceManager的高可用NodeManager:負責執行主節點ResourceManager分配的任務

    第三種:NameNode高可用與ResourceManager單節點架構模型

    文件系統核心模塊:

    NameNode:集群當中的主節點,主要用于管理集群當中的各種數據,其中nameNode可以有兩個,形成高可用狀態DataNode:集群當中的從節點,主要用于存儲集群當中的各種數據JournalNode:文件系統元數據信息管理

    數據計算核心模塊:

    ResourceManager:接收用戶的計算請求任務,并負責集群的資源分配,以及計算任務的劃分NodeManager:負責執行主節點ResourceManager分配的任務

    第四種:NameNode與ResourceManager高可用架構模型

    文件系統核心模塊:

    NameNode:集群當中的主節點,主要用于管理集群當中的各種數據,一般都是使用兩個,實現HA高可用JournalNode:元數據信息管理進程,一般都是奇數個DataNode:從節點,用于數據的存儲

    數據計算核心模塊:

    ResourceManager:Yarn平臺的主節點,主要用于接收各種任務,通過兩個,構建成高可用NodeManager:Yarn平臺的從節點,主要用于處理ResourceManager分配的任務

    2、appache版本hadoop重新編譯

    2.1為什么要編譯hadoop

    由于appache給出的hadoop的安裝包沒有提供帶C程序訪問的接口,所以我們在使用本地庫(本地庫可以用來做壓縮,以及支持C程序等等)的時候就會出問題,需要對Hadoop源碼包進行重新編譯.

    2.2編譯環境的準備

    2.2.1:準備linux環境

    準備一臺linux環境,內存4G或以上,硬盤40G或以上,我這里使用的是Centos6.9 64位的操作系統(注意:一定要使用64位的操作系統)

    2.2.2:虛擬機聯網,關閉防火墻,關閉selinux

    關閉防火墻命令:

    service iptables stop chkconfig iptables off

    關閉selinuxvim /etc/selinux/config

    2.2.3:安裝jdk1.7

    注意hadoop-2.7.5 這個版本的編譯,只能使用jdk1.7,如果使用jdk1.8那么就會報錯查看centos6.9自帶的openjdkrpm -qa | grep java將所有這些openjdk全部卸載掉

    rpm -e java-1.6.0-openjdk-1.6.0.41-1.13.13.1.el6_8.x86_64 tzdata-java-2016j-1.el6.noarch java-1.7.0-openjdk-1.7.0.131-2.6.9.0.el6_8.x86_64

    注意:這里一定不要使用jdk1.8,親測jdk1.8會出現錯誤將我們jdk的安裝包上傳到/export/softwares(我這里使用的是jdk1.7.0_71這個版本)解壓我們的jdk壓縮包統一兩個路徑

    mkdir -p /export/servers mkdir -p /export/softwares cd /export/softwares tar -zxvf jdk-7u71-linux-x64.tar.gz -C ../servers/

    配置環境變量vim /etc/profile

    export JAVA_HOME=/export/servers/jdk1.7.0_71 export PATH=:$JAVA_HOME/bin:$PATH

    讓修改立即生效source /etc/profile

    2.2.4:安裝maven

    這里使用maven3.x以上的版本應該都可以,不建議使用太高的版本,強烈建議使用3.0.5的版本即可將maven的安裝包上傳到/export/softwares然后解壓maven的安裝包到/export/servers

    cd /export/softwares/ tar -zxvf apache-maven-3.0.5-bin.tar.gz -C ../servers/

    配置maven的環境變量vim /etc/profile

    export MAVEN_HOME=/export/servers/apache-maven-3.0.5 export MAVEN_OPTS="-Xms4096m -Xmx4096m" export PATH=:$MAVEN_HOME/bin:$PATH

    讓修改立即生效source /etc/profile解壓maven的倉庫tar -zxvf mvnrepository.tar.gz -C /export/servers/修改maven的配置文件

    cd /export/servers/apache-maven-3.0.5/conf vim settings.xml

    指定我們本地倉庫存放的路徑添加一個我們阿里云的鏡像地址,會讓我們下載jar包更快

    <mirror><id>alimaven</id><name>aliyun maven</name><url>http://maven.aliyun.com/nexus/content/groups/public/</url><mirrorOf>central</mirrorOf></mirror>

    2.2.5:安裝findbugs

    解壓findbugstar -zxvf findbugs-1.3.9.tar.gz -C ../servers/配置findbugs的環境變量

    vim /etc/profile

    export JAVA_HOME=/export/servers/jdk1.7.0_75 export PATH=:$JAVA_HOME/bin:$PATH export MAVEN_HOME=/export/servers/apache-maven-3.0.5 export PATH=:$MAVEN_HOME/bin:$PATH export FINDBUGS_HOME=/export/servers/findbugs-1.3.9 export PATH=:$FINDBUGS_HOME/bin:$PATH

    讓修改立即生效source /etc/profile

    2.2.6:在線安裝一些依賴包

    yum install autoconf automake libtool cmake yum install ncurses-devel yum install openssl-devel yum install lzo-devel zlib-devel gcc gcc-c++

    bzip2壓縮需要的依賴包

    yum install -y bzip2-devel

    2.2.7:安裝protobuf

    解壓protobuf并進行編譯

    cd /export/softwares tar -zxvf protobuf-2.5.0.tar.gz -C ../servers/ cd /export/servers/protobuf-2.5.0 ./configure make && make install

    2.2.8、安裝snappy

    cd /export/softwares/ tar -zxf snappy-1.1.1.tar.gz -C ../servers/ cd ../servers/snappy-1.1.1/ ./configure make && make install

    2.2.9:編譯hadoop源碼

    對源碼進行編譯

    cd /export/softwares tar -zxvf hadoop-2.7.5-src.tar.gz -C ../servers/ cd /export/servers/hadoop-2.7.5

    編譯支持snappy壓縮:mvn package -DskipTests -Pdist,native -Dtar -Drequire.snappy -e -X編譯完成之后我們需要的壓縮包就在下面這個路徑里面

    /export/servers/hadoop-2.7.5/hadoop-dist/target

    總結

    以上是生活随笔為你收集整理的hadoop 计算几点 主节点_01-Hadoop的介绍的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。