日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

docker zookeeper kafka kafka-manager 本地hbase hadoop

發(fā)布時間:2024/4/18 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 docker zookeeper kafka kafka-manager 本地hbase hadoop 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

最近項目需要節(jié)約成本進行開發(fā),所以要把docker利用的淋漓盡致,暫時只有一臺服務(wù)器可用。
規(guī)劃如下:zookeeper開啟三個,kafka開啟三個,hbase和hadoop在本地開啟,不用docker。
參考:https://www.cnblogs.com/idea360/p/12411859.html
首先服務(wù)器上已經(jīng)有了docker,這里我們使用docker-compose,提高開發(fā)效率,首先安裝docker-compose:

sudo curl -L "https://github.com/docker/compose/releases/download/1.24.1/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose

這里的1.24.1要進行改變,看你想用什么版本,兼容性如下:
compose文件格式版本 docker版本
3.4 17.09.0+
3.3 17.06.0+
3.2 17.04.0+
3.1 1.13.1+
3.0 1.13.0+
2.3 17.06.0+
2.2 1.13.0+
2.1 1.12.0+
2.0 1.10.0+
1.0 1.9.1.+
接下來:

sudo chmod +x /usr/local/bin/docker-compose sudo ln -s /usr/local/bin/docker-compose /usr/bin/docker-compose docker-compose --version

即可查看是否安裝成功
隨后寫兩個文件分別為zookeeper和kafka:
(注:在zookeeper和kafka中可添加 volumes操作,映射目錄,我這里沒做:
例:
“opt/kafka/kafka1/data/:/kafka”)

version: '3.4'services:zoo1:image: zookeeper:3.4.10restart: alwayshostname: zoo1container_name: zoo1ports:- 2184:2181environment:ZOO_MY_ID: 1ZOO_SERVERS: server.1=0.0.0.0:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888zoo2:image: zookeeper:3.4.10restart: alwayshostname: zoo2container_name: zoo2ports:- 2185:2181environment:ZOO_MY_ID: 2ZOO_SERVERS: server.1=zoo1:2888:3888 server.2=0.0.0.0:2888:3888 server.3=zoo3:2888:3888zoo3:image: zookeeper:3.4.10restart: alwayshostname: zoo3container_name: zoo3ports:- 2186:2181environment:ZOO_MY_ID: 3ZOO_SERVERS: server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=0.0.0.0:2888:3888 version: '3.4'services:kafka1:image: wurstmeister/kafka:2.11-0.11.0.3restart: unless-stoppedcontainer_name: kafka1ports:- "9093:9092"external_links:- zoo1- zoo2- zoo3environment:KAFKA_BROKER_ID: 1KAFKA_ADVERTISED_HOST_NAME: 172.21.0.3 ## 修改:宿主機IPKAFKA_ADVERTISED_PORT: 9093 ## 修改:宿主機映射portKAFKA_ADVERTISED_LISTENERS: PLAINTEXT://172.21.0.3:9093 ## 綁定發(fā)布訂閱的端口。修改:宿主機IPKAFKA_ZOOKEEPER_CONNECT: "zoo1:2181,zoo2:2181,zoo3:2181"KAFKA_delete_topic_enable: 'true'volumes:- "/home/cdata/data1/docker/kafka/kafka1/docker.sock:/var/run/docker.sock"- "/home/cdata/data1/docker/kafka/kafka1/data/:/kafka"kafka2:image: wurstmeister/kafka:2.11-0.11.0.3restart: unless-stoppedcontainer_name: kafka2ports:- "9094:9092"external_links:- zoo1- zoo2- zoo3environment:KAFKA_BROKER_ID: 2KAFKA_ADVERTISED_HOST_NAME: 172.21.0.3 ## 修改:宿主機IPKAFKA_ADVERTISED_PORT: 9094 ## 修改:宿主機映射portKAFKA_ADVERTISED_LISTENERS: PLAINTEXT://172.21.0.3:9094 ## 修改:宿主機IPKAFKA_ZOOKEEPER_CONNECT: "zoo1:2181,zoo2:2181,zoo3:2181"KAFKA_delete_topic_enable: 'true'volumes:- "/home/cdata/data1/docker/kafka/kafka2/docker.sock:/var/run/docker.sock"- "/home/cdata/data1/docker/kafka/kafka2/data/:/kafka"kafka3:image: wurstmeister/kafka:2.11-0.11.0.3restart: unless-stoppedcontainer_name: kafka3ports:- "9095:9092"external_links:- zoo1- zoo2- zoo3environment:KAFKA_BROKER_ID: 3KAFKA_ADVERTISED_HOST_NAME: 172.21.0.3 ## 修改:宿主機IPKAFKA_ADVERTISED_PORT: 9095 ## 修改:宿主機映射portKAFKA_ADVERTISED_LISTENERS: PLAINTEXT://172.21.0.3:9095 ## 修改:宿主機IPKAFKA_ZOOKEEPER_CONNECT: "zoo1:2181,zoo2:2181,zoo3:2181"KAFKA_delete_topic_enable: 'true'volumes:- "/home/cdata/data1/docker/kafka/kafka3/docker.sock:/var/run/docker.sock"- "/home/cdata/data1/docker/kafka/kafka3/data/:/kafka"kafka-manager:image: sheepkiller/kafka-manager:latestrestart: unless-stoppedcontainer_name: kafka-managerhostname: kafka-managerports:- "9000:9000"links: # 連接本compose文件創(chuàng)建的container- kafka1- kafka2- kafka3external_links: # 連接本compose文件以外的container- zoo1- zoo2- zoo3environment:ZK_HOSTS: zoo1:2181,zoo2:2181,zoo3:2181 ## 修改:宿主機IPTZ: CST-8

寫完yml文件后:分別執(zhí)行docker-compose up -d命令,即可完成安裝并且執(zhí)行,隨后打開9000端口也可以查看:


點擊添加集群,輸入相應(yīng)的配置即可


可以進行topic的創(chuàng)建和查詢。
接下來進行hadoop的安裝,配置好相應(yīng)的文件,開啟namenode和datanode

隨后安裝hbase,安裝好后,核心配置如下:
hbase-site.xml
分別綁定到zookeeper和kafka上即可

hbae-env.sh

總結(jié)

以上是生活随笔為你收集整理的docker zookeeper kafka kafka-manager 本地hbase hadoop的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。