日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Kafka整体结构图、Consumer与topic关系、Kafka消息分发、Consumer的负载均衡、Kafka文件存储机制、Kafka partition segment等(来自学习资料)

發(fā)布時間:2024/9/27 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Kafka整体结构图、Consumer与topic关系、Kafka消息分发、Consumer的负载均衡、Kafka文件存储机制、Kafka partition segment等(来自学习资料) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

##1. Kafka整體結(jié)構(gòu)圖
Kafka名詞解釋和工作方式

? Producer : 消息生產(chǎn)者,就是向kafka broker發(fā)消息的客戶端。
? Consumer : 消息消費者,向kafka broker取消息的客戶端
? Topic : 可以理解為一個隊列。
? Consumer Group (CG):這是kafka用來實現(xiàn)一個topic消息的廣播(發(fā)給所有的consumer)和單播(發(fā)給任意一個consumer)的手段。一個topic可以有多個CG。topic的消息會復(fù)制(不是真的復(fù)制,是概念上的)到所有的CG,但每個partion只會把消息發(fā)給該CG中的一個consumer。如果需要實現(xiàn)廣播,只要每個consumer有一個獨立的CG就可以了。要實現(xiàn)單播只要所有的consumer在同一個CG。用CG還可以將consumer進(jìn)行自由的分組而不需要多次發(fā)送消息到不同的topic。
? Broker : 一臺kafka服務(wù)器就是一個broker。一個集群由多個broker組成。一個broker可以容納多個topic。
? Partition :為了實現(xiàn)擴(kuò)展性,一個非常大的topic可以分布到多個broker(即服務(wù)器)上,一個topic可以分為多個partition,每個partition是一個有序的隊列。partition中的每條消息都會被分配一個有序的id(offset)。kafka只保證按一個partition中的順序?qū)⑾l(fā)給consumer,不保證一個topic的整體(多個partition間)的順序。
? Offset: kafka的存儲文件都是按照offset.kafka來命名,用offset做名字的好處是方便查找。例如你想找位于2049的位置,只要找到2048.kafka的文件即可。當(dāng)然the first offset就是00000000000.kafka

2. Consumer與topic關(guān)系

本質(zhì)上kafka只支持Topic;
? 每個group中可以有多個consumer,每個consumer屬于一個consumer group;
通常情況下,一個group中會包含多個consumer,這樣不僅可以提高topic中消息的并發(fā)消費能力,而且還能提高"故障容錯"性,如果group中的某個consumer失效那么其消費的partitions將會有其他consumer自動接管。
? 對于Topic中的一條特定的消息,只會被訂閱此Topic的每個group中的其中一個consumer消費,此消息不會發(fā)送給一個group的多個consumer;
那么一個group中所有的consumer將會交錯的消費整個Topic,每個group中consumer消息消費互相獨立,我們可以認(rèn)為一個group是一個"訂閱"者。
? 在kafka中,一個partition中的消息只會被group中的一個consumer消費(同一時刻);
一個Topic中的每個partions,只會被一個"訂閱者"中的一個consumer消費,不過一個consumer可以同時消費多個partitions中的消息。
? kafka的設(shè)計原理決定,對于一個topic,同一個group中不能有多于partitions個數(shù)的consumer同時消費,否則將意味著某些consumer將無法得到消息。
kafka只能保證一個partition中的消息被某個consumer消費時是順序的;事實上,從Topic角度來說,當(dāng)有多個partitions時,消息仍不是全局有序的。

3. Kafka消息的分發(fā)

Producer客戶端負(fù)責(zé)消息的分發(fā)
? kafka集群中的任何一個broker都可以向producer提供metadata信息,這些metadata中包含"集群中存活的servers列表"/“partitions leader列表"等信息;
? 當(dāng)producer獲取到metadata信息之后, producer將會和Topic下所有partition leader保持socket連接;
? 消息由producer直接通過socket發(fā)送到broker,中間不會經(jīng)過任何"路由層”,事實上,消息被路由到哪個partition上由producer客戶端決定;
比如可以采用"random"“key-hash”"輪詢"等,如果一個topic中有多個partitions,那么在producer端實現(xiàn)"消息均衡分發(fā)"是必要的。
? 在producer端的配置文件中,開發(fā)者可以指定partition路由的方式。

Producer消息發(fā)送的應(yīng)答機(jī)制
設(shè)置發(fā)送數(shù)據(jù)是否需要服務(wù)端的反饋,有三個值0,1,-1
0: producer不會等待broker發(fā)送ack
1: 當(dāng)leader接收到消息之后發(fā)送ack
-1: 當(dāng)所有的follower都同步消息成功后發(fā)送ack
request.required.acks=0

4. Consumer的負(fù)載均衡

當(dāng)一個group中,有consumer加入或者離開時,會觸發(fā)partitions均衡.均衡的最終目的,是提升topic的并發(fā)消費能力,步驟如下:
1、 假如topic1,具有如下partitions: P0,P1,P2,P3
2、 加入group中,有如下consumer: C1,C2
3、 首先根據(jù)partition索引號對partitions排序: P0,P1,P2,P3
4、 根據(jù)consumer.id排序: C0,C1
5、 計算倍數(shù): M = [P0,P1,P2,P3].size / [C0,C1].size,本例值M=2(向上取整)
6、 然后依次分配partitions: C0 = [P0,P1],C1=[P2,P3],即Ci = [P(i * M),P((i + 1) * M -1)]

5. kafka文件存儲機(jī)制

5.1.Kafka文件存儲基本結(jié)構(gòu)

? 在Kafka文件存儲中,同一個topic下有多個不同partition,每個partition為一個目錄,partiton命名規(guī)則為topic名稱+有序序號,第一個partiton序號從0開始,序號最大值為partitions數(shù)量減1。
? 每個partion(目錄)相當(dāng)于一個巨型文件被平均分配到多個大小相等segment(段)數(shù)據(jù)文件中。但每個段segment file消息數(shù)量不一定相等,這種特性方便old segment file快速被刪除。默認(rèn)保留7天的數(shù)據(jù)。

? 每個partiton只需要支持順序讀寫就行了,segment文件生命周期由服務(wù)端配置參數(shù)決定。(什么時候創(chuàng)建,什么時候刪除)

數(shù)據(jù)有序的討論?
一個partition的數(shù)據(jù)是否是有序的? 間隔性有序,不連續(xù)
針對一個topic里面的數(shù)據(jù),只能做到partition內(nèi)部有序,不能做到全局有序。
特別加入消費者的場景后,如何保證消費者消費的數(shù)據(jù)全局有序的?偽命題。

只有一種情況下才能保證全局有序?就是只有一個partition。

5.2.Kafka Partition Segment

? Segment file組成:由2大部分組成,分別為index file和data file,此2個文件一一對應(yīng),成對出現(xiàn),后綴".index"和“.log”分別表示為segment索引文件、數(shù)據(jù)文件。

? Segment文件命名規(guī)則:partion全局的第一個segment從0開始,后續(xù)每個segment文件名為上一個segment文件最后一條消息的offset值。數(shù)值最大為64位long大小,19位數(shù)字字符長度,沒有數(shù)字用0填充。
? 索引文件存儲大量元數(shù)據(jù),數(shù)據(jù)文件存儲大量消息,索引文件中元數(shù)據(jù)指向?qū)?yīng)數(shù)據(jù)文件中message的物理偏移地址。

3,497:當(dāng)前l(fā)og文件中的第幾條信息,存放在磁盤上的那個地方
上述圖中索引文件存儲大量元數(shù)據(jù),數(shù)據(jù)文件存儲大量消息,索引文件中元數(shù)據(jù)指向?qū)?yīng)數(shù)據(jù)文件中message的物理偏移地址。
其中以索引文件中元數(shù)據(jù)3,497為例,依次在數(shù)據(jù)文件中表示第3個message(在全局partiton表示第368772個message)、以及該消息的物理偏移地址為497。

? segment data file由許多message組成, qq物理結(jié)構(gòu)如下:

5.3.Kafka 查找message

讀取offset=368776的message,需要通過下面2個步驟查找。

5.3.1、查找segment file

00000000000000000000.index表示最開始的文件,起始偏移量(offset)為0
00000000000000368769.index的消息量起始偏移量為368770 = 368769 + 1
00000000000000737337.index的起始偏移量為737338=737337 + 1
其他后續(xù)文件依次類推。
以起始偏移量命名并排序這些文件,只要根據(jù)offset 二分查找文件列表,就可以快速定位到具體文件。當(dāng)offset=368776時定位到00000000000000368769.index和對應(yīng)log文件。

5.3.2、通過segment file查找message

當(dāng)offset=368776時,依次定位到00000000000000368769.index的元數(shù)據(jù)物理位置和00000000000000368769.log的物理偏移地址
然后再通過00000000000000368769.log順序查找直到offset=368776為止。

總結(jié)

以上是生活随笔為你收集整理的Kafka整体结构图、Consumer与topic关系、Kafka消息分发、Consumer的负载均衡、Kafka文件存储机制、Kafka partition segment等(来自学习资料)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。