kafka架构:分区机制详解
生活随笔
收集整理的這篇文章主要介紹了
kafka架构:分区机制详解
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
- 消息是通過topic為單位進行管理;
- 分區機制可以打破單機存儲容量的限制,理論上可以存儲海量的數據;
- 分區數越大,并發寫入的性能就越高。這也是kafka適合用于高并發和大數據領域的關鍵;
- 每個topic對應一組日志分區數據;
- 每一組日志分區是一個有序的不可變的日志序列,分區中的每一個record都被分配了唯一的序列編號稱為是offset;
- kafka會持久化所有發布到topic中的record信息,record的默認有效期是7天;
- kafka會定期檢查日志文件,將過期的數據從log中移除;
- kafka采用磁盤存儲日志文件。
PS:kafka只能保證同一個分區內部的數據是FIFO先進先出的,而不能保證所有的數據都是FIFO的。因為一個topic有多個分區,默認會使用輪詢的方式對消息進行負載均衡。
- offset的值越小,表示進入到分區時間越早;反之數據越新。
- kafka只能保證分區內部有序,不能保證多個分區的先進先出。
- 如果要嚴格保證數據是FIFO先進先出的,可以將topic的分區數設置為0,也就是不分區來保證先進先出。
總結
以上是生活随笔為你收集整理的kafka架构:分区机制详解的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: kafka高性能揭秘:顺序写和零拷贝
- 下一篇: kafka单机安装(版本kafka_2.