日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

数据源管理 | Kafka集群环境搭建,消息存储机制详解

發布時間:2025/3/16 编程问答 46 豆豆
生活随笔 收集整理的這篇文章主要介紹了 数据源管理 | Kafka集群环境搭建,消息存储机制详解 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本文源碼:GitHub·點這里 || GitEE·點這里

一、Kafka集群環境

1、環境版本

版本:kafka2.11,zookeeper3.4

注意:這里zookeeper3.4也是基于集群模式部署。

2、解壓重命名

tar -zxvf kafka_2.11-0.11.0.0.tgz mv kafka_2.11-0.11.0.0 kafka2.11

創建日志目錄

[root@en-master kafka2.11]# mkdir logs

注意:以上操作需要同步到集群下其他服務上。

3、添加環境變量

vim /etc/profile export KAFKA_HOME=/opt/kafka2.11 export PATH=$PATH:$KAFKA_HOME/bin source /etc/profile

4、修改核心配置

[root@en-master /opt/kafka2.11/config]# vim server.properties -- 核心修改如下 # 唯一編號 broker.id=0 # 開啟topic刪除 delete.topic.enable=true # 日志地址 log.dirs=/opt/kafka2.11/logs # zk集群 zookeeper.connect=zk01:2181,zk02:2181,zk03:2181

注意:broker.id安裝集群服務個數編排即可,集群下不能重復。

5、啟動kafka集群

# 啟動命令 [root@node02 kafka2.11]# bin/kafka-server-start.sh -daemon config/server.properties # 停止命令 [root@node02 kafka2.11]# bin/kafka-server-stop.sh # 進程查看 [root@node02 kafka2.11]# jps

注意:這里默認啟動了zookeeper集群服務,并且集群下的kafka分別啟動。

6、基礎管理命令

創建topic

bin/kafka-topics.sh --zookeeper zk01:2181 \ --create --replication-factor 3 --partitions 1 --topic one-topic

參數說明:

  • replication-factor 定義副本個數
  • partitions 定義分區個數
  • topic:定義topic名稱

查看topic列表

bin/kafka-topics.sh --zookeeper zk01:2181 --list

修改topic分區

bin/kafka-topics.sh --zookeeper zk01:2181 --alter --topic one-topic --partitions 5

查看topic

bin/kafka-topics.sh --zookeeper zk01:2181 \ --describe --topic one-topic

發送消息

bin/kafka-console-producer.sh \ --broker-list 192.168.72.133:9092 --topic one-topic

消費消息

bin/kafka-console-consumer.sh \ --bootstrap-server 192.168.72.133:9092 --from-beginning --topic one-topic

刪除topic

bin/kafka-topics.sh --zookeeper zk01:2181 \ --delete --topic first

7、Zk集群用處

Kafka集群中有一個broker會被選舉為Controller,Controller依賴Zookeeper環境,管理集群broker的上下線,所有topic的分區副本分配和leader選舉等工作。

二、消息攔截案例

1、攔截器簡介

Kafka中間件的Producer攔截器主要用于實現消息發送的自定義控制邏輯。用戶可以在消息發送前以及回調邏輯執行前有機會對消息做一些自定義,比如消息修改等,發送狀態監控等,用戶可以指定多個攔截器按順序執行攔截。

核心方法

  • configure:獲取配置信息和初始化數據時調用;
  • onSend:消息被序列化以及和計算分區前調用該方法,可以對消息做操作;
  • onAcknowledgement:消息發送到Broker之后,或發送過程失敗時調用;
  • close:關閉攔截器調用,執行一些資源清理工作;

注意:這里說的攔截器是針對消息發送流程。

2、自定義攔截

定義方式:實現ProducerInterceptor接口即可。

攔截器一:在onSend方法中,對攔截的消息進行修改。

@Component public class SendStartInterceptor implements ProducerInterceptor<String, String> {private final Logger LOGGER = LoggerFactory.getLogger("SendStartInterceptor");@Overridepublic void configure(Map<String, ?> configs) {LOGGER.info("configs...");}@Overridepublic ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {// 修改消息內容return new ProducerRecord<>(record.topic(), record.partition(),record.timestamp(), record.key(),"onSend:{" + record.value()+"}");}@Overridepublic void onAcknowledgement(RecordMetadata metadata, Exception exception) {LOGGER.info("onAcknowledgement...");}@Overridepublic void close() {LOGGER.info("SendStart close...");} }

攔截器二:在onAcknowledgement方法中,判斷消息是否發送成功。

@Component public class SendOverInterceptor implements ProducerInterceptor<String, String> {private final Logger LOGGER = LoggerFactory.getLogger("SendOverInterceptor");@Overridepublic void configure(Map<String, ?> configs) {LOGGER.info("configs...");}@Overridepublic ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {LOGGER.info("record...{}", record.value());return record ;}@Overridepublic void onAcknowledgement(RecordMetadata metadata, Exception exception) {if (exception != null){LOGGER.info("Send Fail...exe-msg",exception.getMessage());}LOGGER.info("Send success...");}@Overridepublic void close() {LOGGER.info("SendOver close...");} }

加載攔截器:基于一個KafkaProducer配置Bean,加入攔截器。

@Configuration public class KafkaConfig {@Beanpublic Producer producer (){Properties props = new Properties();// 省略其他配置...// 添加攔截器List<String> interceptors = new ArrayList<>();interceptors.add("com.kafka.cluster.interceptor.SendStartInterceptor");interceptors.add("com.kafka.cluster.interceptor.SendOverInterceptor");props.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG, interceptors);return new KafkaProducer<>(props) ;} }

3、代碼案例

@RestController public class SendMsgWeb {@Resourceprivate KafkaProducer<String,String> producer ;@GetMapping("/sendMsg")public String sendMsg (){producer.send(new ProducerRecord<>("one-topic", "msgKey", "msgValue"));return "success" ;} }

基于上述自定義Bean類型,進行消息發送,關注攔截器中打印日志信息。

三、Kafka存儲分析

說明:該過程基于上述案例producer.send方法追蹤的源碼執行流程,源碼中的過程相對清楚,涉及的核心流程如下。

1、消息生成過程

Producer發送消息采用的是異步發送的方式,消息發送過程如下:

  • Producer發送消息之后,經過攔截器,序列化,事務判斷;
  • 流程執行后,消息內容放入容器中;
  • 容器在指定時間內如果裝滿(size),會喚醒Sender線程;
  • 容器如果在指定時間內沒有裝滿,也會執行一次Sender線程喚醒;
  • 喚醒Sender線程之后,把容器數據拉取到topic中;

絮叨一句:讀這些中間件的源碼,不僅能開闊思維,也會讓自己意識到平時寫的代碼可能真的叫搬磚。

2、存儲機制

Kafka中消息是以topic進行標識分類,生產者面向topic生產消息,topic分區(partition)是物理上的存儲,基于消息日志文件的方式。

  • 每個partition對應于一個log文件,發送的消息不斷追加到該log文件末端;
  • log文件中存儲的就是producer生產的消息數據,采用分片和索引機制;
  • partition分為多個segment。每個segment對應兩個(.index)和(.log)文件;
  • index文件類型存儲的索引信息;
  • log文件存儲消息的數據;
  • 索引文件中的元數據指向對應數據文件中message的物理偏移地址;
  • 消費者組中的每個消費者,都會實時記錄消費的消息offset位置;
  • 當然消息消費出錯時,恢復是從上次的記錄位置繼續消費;

3、事務控制機制

Kafka支持消息的事務控制

Producer事務

跨分區跨會話的事務原理,引入全局唯一的TransactionID,并將Producer獲得的PID和TransactionID綁定。Producer重啟后可以通過正在進行的TransactionID獲得原來的PID。
Kafka基于TransactionCoordinator組件管理Transaction,Producer通過和TransactionCoordinator交互獲得TransactionID對應的任務狀態。TransactionCoordinator將事務狀態寫入Kafka的內部Topic,即使整個服務重啟,進行中的事務狀態可以得到恢復。

Consumer事務

Consumer消息消費,事務的保證強度很低,無法保證消息被精確消費,因為同一事務的消息可能會出現重啟后已經被刪除的情況。

四、源代碼地址

GitHub·地址 https://github.com/cicadasmile/data-manage-parent GitEE·地址 https://gitee.com/cicadasmile/data-manage-parent

推薦關聯閱讀:數據源管理系列

序號標題
01數據源管理:主從庫動態路由,AOP模式讀寫分離
02數據源管理:基于JDBC模式,適配和管理動態數據源
03數據源管理:動態權限校驗,表結構和數據遷移流程
04數據源管理:關系型分庫分表,列式庫分布式計算
05數據源管理:PostGreSQL環境整合,JSON類型應用
06數據源管理:基于DataX組件,同步數據和源碼分析
07數據源管理:OLAP查詢引擎,ClickHouse集群化管理

總結

以上是生活随笔為你收集整理的数据源管理 | Kafka集群环境搭建,消息存储机制详解的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。