日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

掌握 Kafka

發(fā)布時間:2024/1/23 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 掌握 Kafka 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

Apache Kafka 是一個快速、可擴展的、高吞吐的、可容錯的分布式“發(fā)布-訂閱”消息系統(tǒng), 使用 Scala 與 Java 語言編寫,能夠?qū)⑾囊粋€端點傳遞到另一個端點。較之傳統(tǒng)的消息中間件(例如 ActiveMQ、RabbitMQ),Kafka 具有高吞吐量、內(nèi)置分區(qū)、支持消息副本和高容錯的特性,非常適合大規(guī)模消息處理應(yīng)用程序。

?

Kafka 官網(wǎng):http://kafka.apache.org/

?

Kafka 主要設(shè)計目標(biāo)如下:

?

  • 以時間復(fù)雜度為 O(1) 的方式提供消息持久化能力,即使對 TB 級以上數(shù)據(jù)也能保證常數(shù)時間的訪問性能。

  • 高吞吐率。即使在非常廉價的商用機器上也能做到單機支持每秒 100K 條消息的傳輸。

  • 支持 Kafka Server 間的消息分區(qū),及分布式消費,同時保證每個 Partition 內(nèi)的消息順序傳輸。

  • 同時支持離線數(shù)據(jù)處理和實時數(shù)據(jù)處理。

  • 支持在線水平擴展。

?

Kafka 通常用于兩大類應(yīng)用程序:

?

  • 建立實時流數(shù)據(jù)管道,以可靠地在系統(tǒng)或應(yīng)用程序之間獲取數(shù)據(jù)。

  • 構(gòu)建實時流應(yīng)用程序,以轉(zhuǎn)換或響應(yīng)數(shù)據(jù)流。

?

要了解 Kafka 如何執(zhí)行這些操作,讓我們從頭開始深入研究 Kafka 的功能。

?

首先幾個概念:

?

  • Kafka 在一個或多個可以跨越多個數(shù)據(jù)中心的服務(wù)器上作為集群運行。

  • Kafka 集群將記錄流存儲在稱為主題的類別中。

  • 每個記錄由一個鍵,一個值和一個時間戳組成。

?

Kafka 架構(gòu)體系如下圖:

?

?

Kafka 的應(yīng)用場景非常多, 下面我們就來舉幾個我們最常見的場景:

?

①用戶的活動跟蹤:用戶在網(wǎng)站的不同活動消息發(fā)布到不同的主題中心,然后可以對這些消息進行實時監(jiān)測、實時處理。

?

當(dāng)然,也可以加載到 Hadoop 或離線處理數(shù)據(jù)倉庫,對用戶進行畫像。像淘寶、天貓、京東這些大型電商平臺,用戶的所有活動都要進行追蹤的。

?

②日志收集如下圖:

?

?

③限流削峰如下圖:

?

?

④高吞吐率實現(xiàn):Kafka 與其他 MQ 相比,最大的特點就是高吞吐率。為了增加存儲能力,Kafka 將所有的消息都寫入到了低速大容量的硬盤。

?

按理說,這將導(dǎo)致性能損失,但實際上,Kafka 仍然可以保持超高的吞吐率,并且其性能并未受到影響。

?

其主要采用如下方式實現(xiàn)了高吞吐率:

?

  • 順序讀寫:Kafka 將消息寫入到了分區(qū) Partition 中,而分區(qū)中的消息又是順序讀寫的。順序讀寫要快于隨機讀寫。

  • 零拷貝:生產(chǎn)者、消費者對于 Kafka 中的消息是采用零拷貝實現(xiàn)的。

  • 批量發(fā)送:Kafka 允許批量發(fā)送模式。

  • 消息壓縮:Kafka 允許對消息集合進行壓縮。

?

Kafka的優(yōu)點如下:

?

①解耦:在項目啟動之初來預(yù)測將來項目會碰到什么需求,是極其困難的。

?

消息系統(tǒng)在處理過程中間插入了一個隱含的、基于數(shù)據(jù)的接口層,兩邊的處理過程都要實現(xiàn)這一接口。

?

這允許你獨立的擴展或修改兩邊的處理過程,只要確保它們遵守同樣的接口約束。

?

②冗余(副本):有些情況下,處理數(shù)據(jù)的過程會失敗。除非數(shù)據(jù)被持久化,否則將造成丟失。

?

消息隊列把數(shù)據(jù)進行持久化直到它們已經(jīng)被完全處理,通過這一方式規(guī)避了數(shù)據(jù)丟失風(fēng)險。

?

許多消息隊列所采用的"插入-獲取-刪除"范式中,在把一個消息從隊列中刪除之前,需要你的處理系統(tǒng)明確的指出該消息已經(jīng)被處理完畢,從而確保你的數(shù)據(jù)被安全的保存直到你使用完畢。

?

③擴展性:因為消息隊列解耦了你的處理過程,所以增大消息入隊和處理的頻率是很容易的,只要另外增加處理過程即可。不需要改變代碼、不需要調(diào)節(jié)參數(shù)。擴展就像調(diào)大電力按鈕一樣簡單。

?

④靈活性&峰值處理能力:在訪問量劇增的情況下,應(yīng)用仍然需要繼續(xù)發(fā)揮作用,但是這樣的突發(fā)流量并不常見;如果為以能處理這類峰值訪問為標(biāo)準(zhǔn)來投入資源隨時待命無疑是巨大的浪費。

?

使用消息隊列能夠使關(guān)鍵組件頂住突發(fā)的訪問壓力,而不會因為突發(fā)的超負荷的請求而完全崩潰。

?

⑤可恢復(fù)性:系統(tǒng)的一部分組件失效時,不會影響到整個系統(tǒng)。消息隊列降低了進程間的耦合度,所以即使一個處理消息的進程掛掉,加入隊列中的消息仍然可以在系統(tǒng)恢復(fù)后被處理。

?

⑥順序保證:在大多使用場景下,數(shù)據(jù)處理的順序都很重要。大部分消息隊列本來就是排序的,并且能保證數(shù)據(jù)會按照特定的順序來處理。Kafka 保證一個 Partition 內(nèi)的消息的有序性。

?

⑦緩沖:在任何重要的系統(tǒng)中,都會有需要不同的處理時間的元素。例如,加載一張圖片比應(yīng)用過濾器花費更少的時間。

?

消息隊列通過一個緩沖層來幫助任務(wù)最高效率的執(zhí)行,寫入隊列的處理會盡可能的快速。該緩沖有助于控制和優(yōu)化數(shù)據(jù)流經(jīng)過系統(tǒng)的速度。

?

⑧異步通信:很多時候,用戶不想也不需要立即處理消息。消息隊列提供了異步處理機制,允許用戶把一個消息放入隊列,但并不立即處理它。想向隊列中放入多少消息就放多少,然后在需要的時候再去處理它們。

?

Kafka 與其他 MQ 對比如下:

?

①RabbitMQ:RabbitMQ 是使用 Erlang 編寫的一個開源的消息隊列,本身支持很多的協(xié)議:AMQP,XMPP,SMTP,STOMP,也正因如此,它非常重量級,更適合于企業(yè)級的開發(fā)。

?

同時實現(xiàn)了 Broker 構(gòu)架,這意味著消息在發(fā)送給客戶端時先在中心隊列排隊。對路由,負載均衡或者數(shù)據(jù)持久化都有很好的支持。

?

②Redis:Redis 是一個基于 Key-Value 對的 NoSQL 數(shù)據(jù)庫,開發(fā)維護很活躍。

?

雖然它是一個 Key-Value 數(shù)據(jù)庫存儲系統(tǒng),但它本身支持 MQ 功能,所以完全可以當(dāng)做一個輕量級的隊列服務(wù)來使用。

?

對于 RabbitMQ 和 Redis 的入隊和出隊操作,各執(zhí)行 100 萬次,每 10 萬次記錄一次執(zhí)行時間。測試數(shù)據(jù)分為 128Bytes、512Bytes、1K 和 10K 四個不同大小的數(shù)據(jù)。

?

實驗表明:入隊時,當(dāng)數(shù)據(jù)比較小時 Redis 的性能要高于 RabbitMQ,而如果數(shù)據(jù)大小超過了 10K,Redis 則慢的無法忍受;出隊時,無論數(shù)據(jù)大小,Redis 都表現(xiàn)出非常好的性能,而 RabbitMQ 的出隊性能則遠低于 Redis。

?

③ZeroMQ:ZeroMQ 號稱最快的消息隊列系統(tǒng),尤其針對大吞吐量的需求場景。

?

ZeroMQ 能夠?qū)崿F(xiàn) RabbitMQ 不擅長的高級/復(fù)雜的隊列,但是開發(fā)人員需要自己組合多種技術(shù)框架,技術(shù)上的復(fù)雜度是對這 MQ 能夠應(yīng)用成功的挑戰(zhàn)。

?

ZeroMQ 具有一個獨特的非中間件的模式,你不需要安裝和運行一個消息服務(wù)器或中間件,因為你的應(yīng)用程序?qū)缪葸@個服務(wù)器角色。

?

你只需要簡單的引用 ZeroMQ 程序庫,可以使用 NuGet 安裝,然后你就可以愉快的在應(yīng)用程序之間發(fā)送消息了。

?

但是 ZeroMQ 僅提供非持久性的隊列,也就是說如果宕機,數(shù)據(jù)將會丟失。其中,Twitter 的 Storm 0.9.0 以前的版本中默認使用 ZeroMQ 作為數(shù)據(jù)流的傳輸(Storm 從 0.9 版本開始同時支持 ZeroMQ 和 Netty 作為傳輸模塊)。

?

④ActiveMQ:ActiveMQ 是 Apache 下的一個子項目。類似于 ZeroMQ,它能夠以代理人和點對點的技術(shù)實現(xiàn)隊列。同時類似于 RabbitMQ,它少量代碼就可以高效地實現(xiàn)高級應(yīng)用場景。

?

⑤Kafka/Jafka:Kafka 是 Apache 下的一個子項目,是一個高性能跨語言分布式發(fā)布/訂閱消息隊列系統(tǒng),而 Jafka 是在 Kafka 之上孵化而來的,即 Kafka 的一個升級版。

?

具有以下特性:

?

  • 快速持久化,可以在 O(1) 的系統(tǒng)開銷下進行消息持久化。

  • 高吞吐,在一臺普通的服務(wù)器上既可以達到 10W/s 的吞吐速率。

  • 完全的分布式系統(tǒng),Broker、Producer、Consumer 都原生自動支持分布式,自動實現(xiàn)負載均衡。

  • 支持 Hadoop 數(shù)據(jù)并行加載,對于像 Hadoop 的一樣的日志數(shù)據(jù)和離線分析系統(tǒng),但又要求實時處理的限制,這是一個可行的解決方案。

?

Kafka 通過 Hadoop 的并行加載機制統(tǒng)一了在線和離線的消息處理。Apache Kafka 相對于 ActiveMQ 是一個非常輕量級的消息系統(tǒng),除了性能非常好之外,還是一個工作良好的分布式系統(tǒng)。

?

Kafka的幾種重要角色如下:

?

①Kafka 作為存儲系統(tǒng):任何允許發(fā)布與使用無關(guān)的消息發(fā)布的消息隊列都有效地充當(dāng)了運行中消息的存儲系統(tǒng)。Kafka 的不同之處在于它是一個非常好的存儲系統(tǒng)。

?

寫入 Kafka 的數(shù)據(jù)將寫入磁盤并進行復(fù)制以實現(xiàn)容錯功能。Kafka 允許生產(chǎn)者等待確認,以便直到完全復(fù)制并確保即使寫入服務(wù)器失敗的情況下寫入也不會完成。

?

Kafka 的磁盤結(jié)構(gòu)可以很好地擴展使用-無論服務(wù)器上有 50KB 還是 50TB 的持久數(shù)據(jù),Kafka 都將執(zhí)行相同的操作。

?

由于認真對待存儲并允許客戶端控制其讀取位置,因此您可以將 Kafka 視為一種專用于高性能,低延遲提交日志存儲,復(fù)制和傳播的專用分布式文件系統(tǒng)。

?

②Kafka 作為消息傳遞系統(tǒng):Kafka 的流概念與傳統(tǒng)的企業(yè)消息傳遞系統(tǒng)相比如何?

?

傳統(tǒng)上,消息傳遞具有兩種模型:排隊和發(fā)布訂閱。在隊列中,一組使用者可以從服務(wù)器中讀取內(nèi)容,并且每條記錄都將轉(zhuǎn)到其中一個。

?

在發(fā)布-訂閱記錄中廣播給所有消費者。這兩個模型中的每一個都有優(yōu)點和缺點。

?

排隊的優(yōu)勢在于,它允許您將數(shù)據(jù)處理劃分到多個使用者實例上,從而擴展處理量。

?

不幸的是,隊列不是多用戶的—一次進程讀取了丟失的數(shù)據(jù)。發(fā)布-訂閱允許您將數(shù)據(jù)廣播到多個進程,但是由于每條消息都傳遞給每個訂閱者,因此無法擴展處理。

?

Kafka 的消費者群體概念概括了這兩個概念。與隊列一樣,使用者組允許您將處理劃分為一組進程(使用者組的成員)。與發(fā)布訂閱一樣,Kafka 允許您將消息廣播到多個消費者組。

?

Kafka 模型的優(yōu)點在于,每個主題都具有這些屬性-可以擴展處理范圍,并且是多訂閱者,無需選擇其中一個。

?

與傳統(tǒng)的消息傳遞系統(tǒng)相比,Kafka 還具有更強的訂購保證。傳統(tǒng)隊列將記錄按順序保留在服務(wù)器上,如果多個使用者從隊列中消費,則服務(wù)器將按記錄的存儲順序分發(fā)記錄。

?

但是,盡管服務(wù)器按順序分發(fā)記錄,但是這些記錄是異步傳遞給使用者的,因此它們可能在不同的使用者上亂序到達。

?

這實際上意味著在并行使用的情況下會丟失記錄的順序。消息傳遞系統(tǒng)通常通過“專有使用者”的概念來解決此問題,該概念僅允許一個進程從隊列中使用,但是,這當(dāng)然意味著在處理中沒有并行性。

?

Kafka 做得更好,通過在主題內(nèi)具有并行性(即分區(qū))的概念,Kafka 能夠在用戶進程池中提供排序保證和負載均衡。

?

這是通過將主題中的分區(qū)分配給消費者組中的消費者來實現(xiàn)的,以便每個分區(qū)都由組中的一個消費者完全消費。

?

通過這樣做,我們確保使用者是該分區(qū)的唯一讀取器,并按順序使用數(shù)據(jù)。由于存在許多分區(qū),因此仍然可以平衡許多使用者實例上的負載。但是請注意,使用者組中的使用者實例不能超過分區(qū)。

?

③Kafka 用作流處理:僅讀取,寫入和存儲數(shù)據(jù)流是不夠的,目的是實現(xiàn)對流的實時處理。

?

在 Kafka 中,流處理器是指從輸入主題中獲取連續(xù)數(shù)據(jù)流,對該輸入進行一些處理并生成連續(xù)數(shù)據(jù)流以輸出主題的任何東西。

?

例如,零售應(yīng)用程序可以接受銷售和裝運的輸入流,并輸出根據(jù)此數(shù)據(jù)計算出的重新訂購和價格調(diào)整流。

?

可以直接使用生產(chǎn)者和消費者 API 進行簡單處理。但是,對于更復(fù)雜的轉(zhuǎn)換,Kafka 提供了完全集成的 Streams API。

?

這允許構(gòu)建執(zhí)行非重要處理的應(yīng)用程序,這些應(yīng)用程序計算流的聚合或?qū)⒘鬟B接在一起。

?

該功能有助于解決此類應(yīng)用程序所面臨的難題:處理無序數(shù)據(jù),在代碼更改時重新處理輸入,執(zhí)行狀態(tài)計算等。

?

流 API 建立在 Kafka 提供的核心原語之上:它使用生產(chǎn)者和使用者 API 進行輸入,使用 Kafka 進行狀態(tài)存儲,并使用相同的組機制來實現(xiàn)流處理器實例之間的容錯。

?

Kafka 中的關(guān)鍵術(shù)語解釋

?

Topic:主題。在 Kafka 中,使用一個類別屬性來劃分消息的所屬類,劃分消息的這個類稱為 Topic。Topic 相當(dāng)于消息的分類標(biāo)簽,是一個邏輯概念。

?

物理上不同 Topic 的消息分開存儲,邏輯上一個 Topic 的消息雖然保存于一個或多個 Broker 上但用戶只需指定消息的 Topic 即可生產(chǎn)或消費數(shù)據(jù)而不必關(guān)心數(shù)據(jù)存于何處。

?

Partition:分區(qū)。Topic 中的消息被分割為一個或多個 Partition,其是一個物理概念,對應(yīng)到系統(tǒng)上 就是一個或若干個目錄。Partition 內(nèi)部的消息是有序的,但 Partition 間的消息是無序的。

?

Segment 段。將 Partition 進一步細分為了若干的 Segment,每個 Segment 文件的大小相等。

?

Broker:Kafka 集群包含一個或多個服務(wù)器,每個服務(wù)器節(jié)點稱為一個 Broker。

?

Broker 存儲 Topic 的數(shù)據(jù)。如果某 Topic 有 N 個 Partition,集群有 N 個 Broker,那么每個 Broker 存儲該 Topic 的一個 Partition。

?

如果某 Topic 有 N 個 Partition,集群有(N+M)個 Broker,那么其中有 N 個 Broker 存儲該 Topic 的一個 Partition,剩下的 M 個 Broker 不存儲該 Topic 的 Partition 數(shù)據(jù)。

?

如果某 Topic 有 N 個 Partition,集群中 Broker 數(shù)目少于 N 個,那么一個 Broker 存儲該 Topic 的一個或多個 Partition。

?

在實際生產(chǎn)環(huán)境中,盡量避免這種情況的發(fā)生,這種情況容易導(dǎo)致 Kafka 集群數(shù)據(jù)不均衡。

?

Producer:生產(chǎn)者。即消息的發(fā)布者,生產(chǎn)者將數(shù)據(jù)發(fā)布到他們選擇的主題。

生產(chǎn)者負責(zé)選擇將哪個記錄分配給主題中的哪個分區(qū)。即:生產(chǎn)者生產(chǎn)的一條消息,會被寫入到某一個 Partition。

?

Consumer:消費者。可以從 Broker 中讀取消息。一個消費者可以消費多個 Topic 的消息;一個消費者可以消費同一個 Topic 中的多個 Partition 中的消息;一個 Partiton 允許多個 Consumer 同時消費。

?

Consumer Group:Consumer Group 是 Kafka 提供的可擴展且具有容錯性的消費者機制。

?

組內(nèi)可以有多個消費者,它們共享一個公共的 ID,即 Group ID。組內(nèi)的所有消費者協(xié)調(diào)在一起來消費訂閱主題 的所有分區(qū)。

?

Kafka 保證同一個 Consumer Group 中只有一個 Consumer 會消費某條消息。

?

實際上,Kafka 保證的是穩(wěn)定狀態(tài)下每一個 Consumer 實例只會消費某一個或多個特定的 Partition,而某個 Partition 的數(shù)據(jù)只會被某一個特定的 Consumer 實例所消費。

?

下面我們用官網(wǎng)的一張圖, 來標(biāo)識 Consumer 數(shù)量和 Partition 數(shù)量的對應(yīng)關(guān)系。

?

?

由兩臺服務(wù)器組成的 Kafka 群集,其中包含四個帶有兩個使用者組的分區(qū)(P0-P3)。消費者組 A 有兩個消費者實例,組 B 有四個。

?

對于這個消費組, 以前一直搞不明白, 我自己的總結(jié)是:Topic 中的 Partitoin 到 Group 是發(fā)布訂閱的通信方式。

?

即一條 Topic 的 Partition 的消息會被所有的 Group 消費,屬于一對多模式;Group 到 Consumer 是點對點通信方式,屬于一對一模式。

?

舉個例子:不使用 Group 的話,啟動 10 個 Consumer 消費一個 Topic,這 10 個 Consumer 都能得到 Topic 的所有數(shù)據(jù),相當(dāng)于這個 Topic 中的任一條消息被消費 10 次。

?

使用 Group 的話,連接時帶上 groupid,Topic 的消息會分發(fā)到 10 個 Consumer 上,每條消息只被消費 1 次。

?

Replizcas of partition:分區(qū)副本。副本是一個分區(qū)的備份,是為了防止消息丟失而創(chuàng)建的分區(qū)的備份。

?

Partition Leader:每個 Partition 有多個副本,其中有且僅有一個作為 Leader,Leader 是當(dāng)前負責(zé)消息讀寫 的 Partition。即所有讀寫操作只能發(fā)生于 Leader 分區(qū)上。

?

Partition Follower:所有 Follower 都需要從 Leader 同步消息,Follower 與 Leader 始終保持消息同步。Leader 與 Follower 的關(guān)系是主備關(guān)系,而非主從關(guān)系。

?

ISR:

?

  • ISR,In-Sync Replicas,是指副本同步列表。ISR 列表是由 Leader 負責(zé)維護。

  • AR,Assigned Replicas,指某個 Partition 的所有副本, 即已分配的副本列表。

  • OSR,Outof-Sync Replicas,即非同步的副本列表。

  • AR=ISR+OSR

?

Offset:偏移量。每條消息都有一個當(dāng)前 Partition 下唯一的 64 字節(jié)的 Offset,它是相當(dāng)于當(dāng)前分區(qū)第一條消息的偏移量。

?

Broker Controller:Kafka集群的多個 Broker 中,有一個會被選舉 Controller,負責(zé)管理整個集群中 Partition 和 Replicas 的狀態(tài)。

?

只有 Broker Controller 會向 Zookeeper 中注冊 Watcher,其他 Broker 及分區(qū)無需注冊。即 Zookeeper 僅需監(jiān)聽 Broker Controller 的狀態(tài)變化即可。

?

HW 與 LEO:

?

  • HW,HighWatermark,高水位,表示 Consumer 可以消費到的最高 Partition 偏移量。HW 保證了 Kafka 集群中消息的一致性。確切地說,是保證了 Partition 的 Follower 與 Leader 間數(shù) 據(jù)的一致性。

  • LEO,Log End Offset,日志最后消息的偏移量。消息是被寫入到 Kafka 的日志文件中的, 這是當(dāng)前最后一個寫入的消息在 Partition 中的偏移量。

  • 對于 Leader 新寫入的消息,Consumer 是不能立刻消費的。Leader 會等待該消息被所有 ISR 中的 Partition Follower 同步后才會更新 HW,此時消息才能被 Consumer 消費。

?

我相信你看完上面的概念還是懵逼的,好吧!下面我們就用圖來形象話的表示兩者的關(guān)系吧:

?

?

ZooKeeper:ZooKeeper 負責(zé)維護和協(xié)調(diào) Broker,負責(zé) Broker Controller 的選舉。在 Kafka 0.9 之前版本,Offset 是由 ZK 負責(zé)管理的。

?

總結(jié):ZooKeeper 負責(zé) Controller 的選舉,Controller 負責(zé) Leader 的選舉。

?

Coordinator:一般指的是運行在每個 Broker 上的 Group Coordinator 進程,用于管理 Consumer Group 中的各個成員,主要用于 Offset 位移管理和 Rebalance。一個 Coordinator 可以同時管理多個消費者組。

?

Rebalance:當(dāng)消費者組中的數(shù)量發(fā)生變化,或者 Topic 中的 Partition 數(shù)量發(fā)生了變化時,Partition 的所有權(quán)會在消費者間轉(zhuǎn)移,即 Partition 會重新分配,這個過程稱為再均衡 Rebalance。

?

再均衡能夠給消費者組及 Broker 帶來高性能、高可用性和伸縮,但在再均衡期間消費者是無法讀取消息的,即整個 Broker 集群有小一段時間是不可用的。因此要避免不必要的再均衡。

?

Offset Commit:Consumer 從 Broker 中取一批消息寫入 Buffer 進行消費,在規(guī)定的時間內(nèi)消費完消息后,會自動將其消費消息的 Offset 提交給 Broker,以記錄下哪些消息是消費過的。當(dāng)然,若在時限內(nèi)沒有消費完畢,其是不會提交 Offset 的。

?

Kafka的工作原理和過程

?

消息寫入算法

?

消息發(fā)送者將消息發(fā)送給 Broker, 并形成最終的可供消費者消費的 log,是已給比較復(fù)雜的過程:

?

  • Producer 先從 ZooKeeper 中找到該 Partition 的 Leader。

  • Producer將消息發(fā)送給該 Leader。

  • Leader 將消息接入本地的 log,并通知 ISR 的 Followers。

  • ISR 中的 Followers 從 Leader 中 Pull 消息, 寫入本地 log 后向 Leader 發(fā)送 Ack。

  • Leader 收到所有 ISR 中的 Followers 的 Ack 后,增加 HW 并向 Producer 發(fā)送 Ack,表示消息寫入成功。

?

消息路由策略

?

在通過 API 方式發(fā)布消息時,生產(chǎn)者是以 Record 為消息進行發(fā)布的。

?

Record 中包含 Key 與 Value,Value 才是我們真正的消息本身,而 Key 用于路由消息所要存放的 Partition。

?

消息要寫入到哪個 Partition 并不是隨機的,而是有路由策略的:

?

  • 若指定了 Partition,則直接寫入到指定的 Partition。

  • 若未指定 Partition 但指定了 Key,則通過對 Key 的 Hash 值與 Partition 數(shù)量取模,該取模。

  • 結(jié)果就是要選出的 Partition 索引。

  • 若 Partition 和 Key 都未指定,則使用輪詢算法選出一個 Partition。

?

HW 截斷機制

?

如果 Partition Leader 接收到了新的消息, ISR 中其它 Follower 正在同步過程中,還未同步完畢時 Leader 宕機。

?

此時就需要選舉出新的 Leader。若沒有 HW 截斷機制,將會導(dǎo)致 Partition 中 Leader 與 Follower 數(shù)據(jù)的不一致。

?

當(dāng)原 Leader 宕機后又恢復(fù)時,將其 LEO 回退到其宕機時的 HW,然后再與新的 Leader 進行數(shù)據(jù)同步,這樣就可以保證老 Leader 與新 Leader 中數(shù)據(jù)一致了,這種機制稱為 HW 截斷機制。

?

消息發(fā)送的可靠性

?

生產(chǎn)者向 Kafka 發(fā)送消息時,可以選擇需要的可靠性級別。通過 request.required.acks 參數(shù)的值進行設(shè)置。

?

0 值:異步發(fā)送。生產(chǎn)者向 Kafka 發(fā)送消息而不需要 Kafka 反饋成功 Ack。該方式效率最高,但可靠性最低。

?

其可能會存在消息丟失的情況:

?

  • 在傳輸過程中會出現(xiàn)消息丟失。

  • 在 Broker 內(nèi)部會出現(xiàn)消息丟失。

  • 會出現(xiàn)寫入到 Kafka 中的消息的順序與生產(chǎn)順序不一致的情況。

?

1 值:同步發(fā)送。生產(chǎn)者發(fā)送消息給 Kafka,Broker 的 Partition Leader 在收到消息后馬上發(fā)送成功 Ack(無需等等 ISR 中的 Follower 同步)。

?

生產(chǎn)者收到后知道消息發(fā)送成功,然后會再發(fā)送消息。如果一直未收到 Kafka 的 Ack,則生產(chǎn)者會認為消息發(fā)送失敗,會重發(fā)消息。

?

該方式對于 Producer 來說,若沒有收到 Ack,一定可以確認消息發(fā)送失敗了,然后可以重發(fā)。

?

但是,即使收到了 ACK,也不能保證消息一定就發(fā)送成功了。故,這種情況,也可能會發(fā)生消息丟失的情況。

?

-1 值:同步發(fā)送。生產(chǎn)者發(fā)送消息給 Kafka,Kafka 收到消息后要等到 ISR 列表中的所有副本都 同步消息完成后,才向生產(chǎn)者發(fā)送成功 Ack。

?

如果一直未收到 Kafka 的 Ack,則認為消息發(fā)送 失敗,會自動重發(fā)消息。該方式會出現(xiàn)消息重復(fù)接收的情況。

?

消費者消費過程解析

?

生產(chǎn)者將消息發(fā)送到 Topitc 中,消費者即可對其進行消費,其消費過程如下:

?

  • Consumer 向 Broker 提交連接請求,其所連接上的 Broker 都會向其發(fā)送Broker Controller 的通信 URL,即配置文件中的 Listeners 地址。

  • 當(dāng) Consumer 指定了要消費的 Topic 后,會向 Broker Controller 發(fā)送消費請求。

  • Broker Controller 會為 Consumer 分配一個或幾個 Partition Leader,并將該 Partition 的當(dāng)前 Offset 發(fā)送給 Consumer。

  • Consumer 會按照 Broker Controller 分配的 Partition 對其中的消息進行消費。

  • 當(dāng) Consumer 消費完該條消息后,Consumer 會向 Broker 發(fā)送一個消息已經(jīng)被消費反饋,即該消息的 Offset。

  • 在 Broker 接收到 Consumer 的 Offset 后,會更新相應(yīng)的 __consumer_offset 中。

  • 以上過程會一直重復(fù),知道消費者停止請求消費。

  • Consumer 可以重置 Offset,從而可以靈活消費存儲在 Broker 上的消息。

?

Partition Leader 選舉范圍

?

當(dāng) Leader 宕機后,Broker Controller 會從 ISR 中挑選一個 Follower 成為新的 Leader。

?

如果 ISR 中沒有其他副本怎么辦?可以通過 unclean.leader.election.enable 的值來設(shè)置 Leader 選舉范圍。

?

False:必須等到 ISR 列表中所有的副本都活過來才進行新的選舉。該策略可靠性有保證,但可用性低。

?

True:在 ISR 列表中沒有副本的情況下,可以選擇任意一個沒有宕機的主機作為新的 Leader,該策略可用性高,但可靠性沒有保證。

?

重復(fù)消費問題的解決方案

?

同一個 Consumer 重復(fù)消費:當(dāng) Consumer 由于消費能力低而引發(fā)了消費超時,則可能會形成重復(fù)消費。

?

在某數(shù)據(jù)剛好消費完畢,但是正準(zhǔn)備提交 Offset 時候,消費時間超時,則 Broker 認為這條消息未消費成功。這時就會產(chǎn)生重復(fù)消費問題。其解決方案:延長 Offset 提交時間。

?

不同的 Consumer 重復(fù)消費:當(dāng) Consumer 消費了消息,但還沒有提交 Offset 時宕機,則這些已經(jīng)被消費過的消息會被重復(fù)消費。其解決方案:將自動提交改為手動提交。

?

從架構(gòu)設(shè)計上解決 Kafka 重復(fù)消費的問題

?

我們在設(shè)計程序的時候,比如考慮到網(wǎng)絡(luò)故障等一些異常的情況,我們都會設(shè)置消息的重試次數(shù),可能還有其他可能出現(xiàn)消息重復(fù),那我們應(yīng)該如何解決呢?下面提供三個方案:

?

方案一:保存并查詢

?

給每個消息都設(shè)置一個獨一無二的 uuid,所有的消息,我們都要存一個 uuid。

?

我們在消費消息的時候,首先去持久化系統(tǒng)中查詢一下看這個看是否以前消費過,如沒有消費過,在進行消費,如果已經(jīng)消費過,丟棄就好了。

?

下圖表明了這種方案:

?

?

方案二:利用冪等

?

冪等(Idempotence)在數(shù)學(xué)上是這樣定義的,如果一個函數(shù) f(x) 滿足:f(f(x)) = f(x),則函數(shù) f(x) 滿足冪等性。

?

這個概念被拓展到計算機領(lǐng)域,被用來描述一個操作、方法或者服務(wù)。一個冪等操作的特點是,其任意多次執(zhí)行所產(chǎn)生的影響均與一次執(zhí)行的影響相同。

?

一個冪等的方法,使用同樣的參數(shù),對它進行多次調(diào)用和一次調(diào)用,對系統(tǒng)產(chǎn)生的影響是一樣的。所以,對于冪等的方法,不用擔(dān)心重復(fù)執(zhí)行會對系統(tǒng)造成任何改變。

?

我們舉個例子來說明一下。在不考慮并發(fā)的情況下,“將 X 老師的賬戶余額設(shè)置為 100 萬元”,執(zhí)行一次后對系統(tǒng)的影響是,X 老師的賬戶余額變成了 100 萬元。

?

只要提供的參數(shù) 100 萬元不變,那即使再執(zhí)行多少次,X 老師的賬戶余額始終都是 100 萬元,不會變化,這個操作就是一個冪等的操作。

?

再舉一個例子,“將 X 老師的余額加 100 萬元”,這個操作它就不是冪等的,每執(zhí)行一次,賬戶余額就會增加 100 萬元,執(zhí)行多次和執(zhí)行一次對系統(tǒng)的影響(也就是賬戶的余額)是不一樣的。

?

所以,通過這兩個例子,我們可以想到如果系統(tǒng)消費消息的業(yè)務(wù)邏輯具備冪等性,那就不用擔(dān)心消息重復(fù)的問題了,因為同一條消息,消費一次和消費多次對系統(tǒng)的影響是完全一樣的。也就可以認為,消費多次等于消費一次。

?

那么,如何實現(xiàn)冪等操作呢?最好的方式就是,從業(yè)務(wù)邏輯設(shè)計上入手,將消費的業(yè)務(wù)邏輯設(shè)計成具備冪等性的操作。

?

但是,不是所有的業(yè)務(wù)都能設(shè)計成天然冪等的,這里就需要一些方法和技巧來實現(xiàn)冪等。

?

下面我們介紹一種常用的方法:利用數(shù)據(jù)庫的唯一約束實現(xiàn)冪等。

?

例如,我們剛剛提到的那個不具備冪等特性的轉(zhuǎn)賬的例子:將 X 老師的賬戶余額加 100 萬元。在這個例子中,我們可以通過改造業(yè)務(wù)邏輯,讓它具備冪等性。

?

首先,我們可以限定,對于每個轉(zhuǎn)賬單每個賬戶只可以執(zhí)行一次變更操作,在分布式系統(tǒng)中,這個限制實現(xiàn)的方法非常多,最簡單的是我們在數(shù)據(jù)庫中建一張轉(zhuǎn)賬流水表。

?

這個表有三個字段:轉(zhuǎn)賬單 ID、賬戶 ID 和變更金額,然后給轉(zhuǎn)賬單 ID 和賬戶 ID 這兩個字段聯(lián)合起來創(chuàng)建一個唯一約束,這樣對于相同的轉(zhuǎn)賬單 ID 和賬戶 ID,表里至多只能存在一條記錄。

?

這樣,我們消費消息的邏輯可以變?yōu)?#xff1a;“在轉(zhuǎn)賬流水表中增加一條轉(zhuǎn)賬記錄,然后再根據(jù)轉(zhuǎn)賬記錄,異步操作更新用戶余額即可。”

?

在轉(zhuǎn)賬流水表增加一條轉(zhuǎn)賬記錄這個操作中,由于我們在這個表中預(yù)先定義了“賬戶 ID 轉(zhuǎn)賬單 ID”的唯一約束,對于同一個轉(zhuǎn)賬單同一個賬戶只能插入一條記錄,后續(xù)重復(fù)的插入操作都會失敗,這樣就實現(xiàn)了一個冪等的操作。

?

?

方案三:設(shè)置前提條件

?

為更新的數(shù)據(jù)設(shè)置前置條件另外一種實現(xiàn)冪等的思路是,給數(shù)據(jù)變更設(shè)置一個前置條件,如果滿足條件就更新數(shù)據(jù),否則拒絕更新數(shù)據(jù),在更新數(shù)據(jù)的時候,同時變更前置條件中需要判斷的數(shù)據(jù)。

?

這樣,重復(fù)執(zhí)行這個操作時,由于第一次更新數(shù)據(jù)的時候已經(jīng)變更了前置條件中需要判斷的數(shù)據(jù),不滿足前置條件,則不會重復(fù)執(zhí)行更新數(shù)據(jù)操作。

?

比如,剛剛我們說過,“將 X 老師的賬戶的余額增加 100 萬元”這個操作并不滿足冪等性,我們可以把這個操作加上一個前置條件,變?yōu)?#xff1a;“如果 X 老師的賬戶當(dāng)前的余額為 500 萬元,將余額加 100 萬元”,這個操作就具備了冪等性。

?

對應(yīng)到消息隊列中的使用時,可以在發(fā)消息時在消息體中帶上當(dāng)前的余額,在消費的時候進行判斷數(shù)據(jù)庫中,當(dāng)前余額是否與消息中的余額相等,只有相等才執(zhí)行變更操作。

?

但是,如果我們要更新的數(shù)據(jù)不是數(shù)值,或者我們要做一個比較復(fù)雜的更新操作怎么辦?用什么作為前置判斷條件呢?

?

更加通用的方法是,給你的數(shù)據(jù)增加一個版本號屬性,每次更數(shù)據(jù)前,比較當(dāng)前數(shù)據(jù)的版本號是否和消息中的版本號一致,如果不一致就拒絕更新數(shù)據(jù),更新數(shù)據(jù)的同時將版本號 +1,一樣可以實現(xiàn)冪等。

?

?

Kafka 集群搭建

?

我們在工作中,為了保證環(huán)境的高可用,防止單點,Kafka 都是以集群的方式出現(xiàn)的,下面就帶領(lǐng)大家一起搭建一套 Kafka 集群環(huán)境。

?

我們在官網(wǎng)下載 Kafka,下載地址為:http://kafka.apache.org/downloads,下載我們需要的版本,推薦使用穩(wěn)定的版本。

搭建集群

?

①下載并解壓

?

  • cd /usr/local/src

  • wget http://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.4.0/kafka_2.11-2.4.0.tgz

  • mkdir /data/servers

  • tar xzvf kafka_2.11-2.4.0.tgz -C /data/servers/

  • cd /data/servers/kafka_2.11-2.4.0

  • ?

    ②修改配置文件

    ?

    Kafka 的配置文件 $KAFKA_HOME/config/server.properties,主要修改一下下面幾項:

    ?

  • 確保每個機器上的id不一樣

  • broker.id=0

  • 配置服務(wù)端的監(jiān)控地址

  • listeners=PLAINTEXT://192.168.51.128:9092

  • kafka 日志目錄

  • log.dirs=/data/servers/kafka_2.11-2.4.0/logs

  • #kafka設(shè)置的partitons的個數(shù)

  • num.partitions=1

  • ?

  • ZooKeeper的連接地址,如果有自己的 ZooKeeper 集群,請直接使用自己搭建的zookeeper集群

  • zookeeper.connect=192.168.51.128:2181

  • ?

    因為我自己是本機做實驗,所有使用的是一個主機的不同端口,在線上,就是不同的機器,大家參考即可。

    ?

    我們這里使用 Kafka 的 ZooKeeper,只啟動一個節(jié)點,但是正真的生產(chǎn)過程中,是需要 Zookeeper 集群,自己搭建就好,后期我們也會出 Zookeeper 的教程,大家請關(guān)注就好了。

    ?

    ③拷貝 3 份配置文件

    ?

  • #創(chuàng)建對應(yīng)的日志目錄

  • mkdir -p /data/servers/kafka_2.11-2.4.0/logs/9092

  • mkdir -p /data/servers/kafka_2.11-2.4.0/logs/9093

  • mkdir -p /data/servers/kafka_2.11-2.4.0/logs/9094

  • ?

  • #拷貝三份配置文件

  • cp server.properties server_9092.properties

  • cp server.properties server_9093.properties

  • cp server.properties server_9094.properties

  • ?

    ④修改不同端口對應(yīng)的文件

    ?

  • #9092的id為0, 9093的id為1, 9094的id為2

  • broker.id=0

  • # 配置服務(wù)端的監(jiān)控地址, 分別在不通的配置文件中寫入不同的端口

  • listeners=PLAINTEXT://192.168.51.128:9092

  • # kafka 日志目錄, 目錄也是對應(yīng)不同的端口

  • log.dirs=/data/servers/kafka_2.11-2.4.0/logs/9092

  • # kafka設(shè)置的partitons的個數(shù)

  • num.partitions=1

  • # ZooKeeper 的連接地址, 如果有自己的 ZooKeeper 集群, 請直接使用自己搭建的 ZooKeeper 集群

  • zookeeper.connect=192.168.51.128:2181

  • ?

    修改 ZooKeeper 的配置文件:

    ?

  • dataDir=/data/servers/zookeeper

  • server.1=192.168.51.128:2888:3888

  • ?

    然后創(chuàng)建 ZooKeeper 的 myid?文件

    ?

  • #創(chuàng)建對應(yīng)的日志目錄

  • mkdir -p /data/servers/kafka_2.11-2.4.0/logs/9092

  • mkdir -p /data/servers/kafka_2.11-2.4.0/logs/9093

  • mkdir -p /data/servers/kafka_2.11-2.4.0/logs/9094

  • ?

  • #拷貝三份配置文件

  • cp server.properties server_9092.properties

  • cp server.properties server_9093.properties

  • cp server.properties server_9094.properties

  • ?

    ④修改不同端口對應(yīng)的文件

    ?

  • #9092的id為0, 9093的id為1, 9094的id為2

  • broker.id=0

  • # 配置服務(wù)端的監(jiān)控地址, 分別在不通的配置文件中寫入不同的端口

  • listeners=PLAINTEXT://192.168.51.128:9092

  • # kafka 日志目錄, 目錄也是對應(yīng)不同的端口

  • log.dirs=/data/servers/kafka_2.11-2.4.0/logs/9092

  • # kafka設(shè)置的partitons的個數(shù)

  • num.partitions=1

  • # ZooKeeper 的連接地址, 如果有自己的 ZooKeeper 集群, 請直接使用自己搭建的 ZooKeeper 集群

  • zookeeper.connect=192.168.51.128:2181

  • ?

    修改 ZooKeeper 的配置文件:

    ?

  • dataDir=/data/servers/zookeeper

  • server.1=192.168.51.128:2888:3888

  • ?

    然后創(chuàng)建 ZooKeeper 的 myid 文件:

    ?

  • echo "1"> /data/servers/zookeeper/myid

  • ?

    ⑤啟動 ZooKeeper

    ?

    使用 Kafka 內(nèi)置的 ZooKeeper:

    ?

  • cd /data/servers/kafka_2.11-2.4.0/bin

  • zookeeper-server-start.sh -daemon ../config/zookeeper.properties

  • netstat -anp |grep 2181

  • ?

    啟動 Kafka:

    ?

  • ./kafka-server-start.sh -daemon ../config/server_9092.properties

  • ./kafka-server-start.sh -daemon ../config/server_9093.properties

  • ./kafka-server-start.sh -daemon ../config/server_9094.properties

  • ?

    Kafka 的操作

    ?

    ①Topic

    ?

    我們先來看一下創(chuàng)建 Topic 常用的參數(shù)吧:

    ?

    • --create:創(chuàng)建 topic

    • --delete:刪除 topic

    • --alter:修改 topic 的名字或者 partition 個數(shù)

    • --list:查看 topic

    • --describe:查看 topic 的詳細信息

    • --topic <String: topic>:指定 topic 的名字

    • --zookeeper <String: hosts>:指定 ZooKeeper 的連接地址參數(shù)提示并不贊成這樣使用(DEPRECATED, The connection string for the zookeeper connection in the form host:port. Multiple hosts can be given to allow fail-over.)

    • --bootstrap-server <String: server to connect to>:指定 Kafka 的連接地址,推薦使用這個,參數(shù)的提示信息顯示(REQUIRED: The Kafka server to connect to. In case of providing this, a direct Zookeeper connection won't be required.)。

    • --replication-factor <Integer: replication factor> : 對于每個 Partiton 的備份個數(shù)。(The replication factor for each partition in the topic being created. If not supplied, defaults to the cluster default.)

    • --partitions <Integer: # of partitions>:指定該 topic 的分區(qū)的個數(shù)。

    ?

    示例:

    ?

  • cd /data/servers/kafka_2.11-2.4.0/bin

  • # 創(chuàng)建topic test1

  • kafka-topics.sh --create --bootstrap-server=192.168.51.128:9092,10.231.128.96:9093,192.168.51.128:9094 --replication-factor 1 --partitions 1 --topic test1

  • # 創(chuàng)建topic test2

  • kafka-topics.sh --create --bootstrap-server=192.168.51.128:9092,10.231.128.96:9093,192.168.51.128:9094 --replication-factor 1 --partitions 1 --topic test2

  • # 查看topic

  • kafka-topics.sh --list --bootstrap-server=192.168.51.128:9092,10.231.128.96:9093,192.168.51.128:9094

  • ?

    自動創(chuàng)建 Topic

    ?

    我們在工作中,如果我們不想去管理 Topic,可以通過 Kafka 的配置文件來管理。

    ?

    我們可以讓 Kafka 自動創(chuàng)建 Topic,需要在我們的 Kafka 配置文件中加入如下

    ?

    配置文件:

    ?

  • auto.create.topics.enable=true

  • ?

    如果刪除 Topic 想達到物理刪除的目的,也是需要配置的:

    ?

  • delete.topic.enable=true

  • ?

    發(fā)送消息

    ?

    他們可以通過客戶端的命令生產(chǎn)消息,先來看看 kafka-console-producer.sh 常用的幾個參數(shù)吧:

    ?

    • --topic <String: topic>:指定 topic

    • --timeout <Integer: timeout_ms>:超時時間

    • --sync:異步發(fā)送消息

    • --broker-list <String: broker-list>:官網(wǎng)提示: REQUIRED: The broker list string in the form HOST1:PORT1,HOST2:PORT2.

    ?

    這個參數(shù)是必須的:

    ?

  • kafka-console-producer.sh --broker-list 192.168.51.128:9092,192.168.51.128:9093,192.168.51.128:9094 --topic test1

  • ?

    消費消息

    ?

    我們也還是先來看看 kafka-console-consumer.sh 的參數(shù)吧:

    ?

    • --topic <String: topic>:指定 topic

    • --group <String: consumer group id>:指定消費者組

    • --from-beginning:指定從開始進行消費, 如果不指定, 就從當(dāng)前進行消費

    • --bootstrap-server:Kafka 的連接地址

    ?

  • kafka-console-consumer.sh --bootstrap-server 192.168.51.128:9092,192.168.51.128:9093,192.168.51.128:9094 --topic test1 ---beginning

  • ?

    ?

    Kafka 的日志

    ?

    Kafka 的日志分兩種:

    ?

    • 第一種日志是我們的 Kafka 的啟動日志,就是我們排查問題,查看報錯信息的日志。

    • 第二種日志就是我們的數(shù)據(jù)日志,Kafka 是我們的數(shù)據(jù)是以日志的形式存在存盤中的,我們第二種所說的日志就是我們的 Partiton 與 Segment。

    ?

    那我們就來說說備份和分區(qū)吧:我們創(chuàng)建一個分區(qū),一個備份,那么 test 就應(yīng)該在三臺機器上或者三個數(shù)據(jù)目錄只有一個 test-0。(分區(qū)的下標(biāo)是從 0 開始的)

    ?

    如果我們創(chuàng)建 N 個分區(qū),我們就會在三個服務(wù)器上發(fā)現(xiàn),test_0-n,如果我們創(chuàng)建 M 個備份,我們就會在發(fā)現(xiàn),test_0 到 test_n 每一個都是 M 個。

    ?

    Kafka API

    ?

    使用 Kafka 原生的 API

    ?

    ①消費者自動提交

    ?

    定義自己的生產(chǎn)者:

    ?

  • import org.apache.kafka.clients.producer.Callback;

  • import org.apache.kafka.clients.producer.KafkaProducer;

  • import org.apache.kafka.clients.producer.ProducerRecord;

  • import org.apache.kafka.clients.producer.RecordMetadata;

  • ?

  • import java.util.Properties;

  • ?

  • /**

  • * @ClassName MyKafkaProducer

  • * @Description TODO

  • * @Author lingxiangxiang

  • * @Date 3:37 PM

  • * @Version 1.0

  • **/

  • public class MyKafkaProducer {

  • private org.apache.kafka.clients.producer.KafkaProducer<Integer, String> producer;

  • ?

  • public MyKafkaProducer() {

  • Properties properties = new Properties();

  • properties.put("bootstrap.servers", "192.168.51.128:9092,192.168.51.128:9093,192.168.51.128:9094");

  • properties.put("key.serializer", "org.apache.kafka.common.serialization.IntegerSerializer");

  • properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

  • // 設(shè)置批量發(fā)送

  • properties.put("batch.size", 16384);

  • // 批量發(fā)送的等待時間50ms, 超過50ms, 不足批量大小也發(fā)送

  • properties.put("linger.ms", 50);

  • this.producer = new org.apache.kafka.clients.producer.KafkaProducer<Integer, String>(properties);

  • }

  • ?

  • public boolean sendMsg() {

  • boolean result = true;

  • try {

  • // 正常發(fā)送, test2是topic, 0代表的是分區(qū), 1代表的是key, hello world是發(fā)送的消息內(nèi)容

  • final ProducerRecord<Integer, String> record = new ProducerRecord<Integer, String>("test2", 0, 1, "hello world");

  • producer.send(record);

  • // 有回調(diào)函數(shù)的調(diào)用

  • producer.send(record, new Callback() {

  • @Override

  • public void onCompletion(RecordMetadata recordMetadata, Exception e) {

  • System.out.println(recordMetadata.topic());

  • System.out.println(recordMetadata.partition());

  • System.out.println(recordMetadata.offset());

  • }

  • });

  • // 自己定義一個類

  • producer.send(record, new MyCallback(record));

  • } catch (Exception e) {

  • result = false;

  • }

  • return result;

  • }

  • }

  • ?

    定義生產(chǎn)者發(fā)送成功的回調(diào)函數(shù):

    ?

  • import org.apache.kafka.clients.producer.Callback;

  • import org.apache.kafka.clients.producer.RecordMetadata;

  • ?

  • /**

  • * @ClassName MyCallback

  • * @Description TODO

  • * @Author lingxiangxiang

  • * @Date 3:51 PM

  • * @Version 1.0

  • **/

  • public class MyCallback implements Callback {

  • private Object msg;

  • ?

  • public MyCallback(Object msg) {

  • this.msg = msg;

  • }

  • ?

  • @Override

  • public void onCompletion(RecordMetadata metadata, Exception e) {

  • System.out.println("topic = " + metadata.topic());

  • System.out.println("partiton = " + metadata.partition());

  • System.out.println("offset = " + metadata.offset());

  • System.out.println(msg);

  • }

  • }

  • ?

    生產(chǎn)者測試類:在生產(chǎn)者測試類中,自己遇到一個坑,就是最后自己沒有加 sleep,就是怎么檢查自己的代碼都沒有問題,但是最后就是沒法發(fā)送成功消息,最后加了一個 sleep 就可以了。

    ?

    因為主函數(shù) main 已經(jīng)執(zhí)行完退出,但是消息并沒有發(fā)送完成,需要進行等待一下。當(dāng)然,你在生產(chǎn)環(huán)境中可能不會遇到這樣問題,呵呵!

    ?

    代碼如下:

    ?

  • import static java.lang.Thread.sleep;

  • ?

  • /**

  • * @ClassName MyKafkaProducerTest

  • * @Description TODO

  • * @Author lingxiangxiang

  • * @Date 3:46 PM

  • * @Version 1.0

  • **/

  • public class MyKafkaProducerTest {

  • public static void main(String[] args) throws InterruptedException {

  • MyKafkaProducer producer = new MyKafkaProducer();

  • boolean result = producer.sendMsg();

  • System.out.println("send msg " + result);

  • sleep(1000);

  • }

  • }

  • ?

    消費者類:

    ?

  • import kafka.utils.ShutdownableThread;

  • import org.apache.kafka.clients.consumer.ConsumerRecord;

  • import org.apache.kafka.clients.consumer.ConsumerRecords;

  • import org.apache.kafka.clients.consumer.KafkaConsumer;

  • ?

  • import java.util.Arrays;

  • import java.util.Collections;

  • import java.util.Properties;

  • ?

  • /**

  • * @ClassName MyKafkaConsumer

  • * @Description TODO

  • * @Author lingxiangxiang

  • * @Date 4:12 PM

  • * @Version 1.0

  • **/

  • public class MyKafkaConsumer extends ShutdownableThread {

  • ?

  • private KafkaConsumer<Integer, String> consumer;

  • ?

  • public MyKafkaConsumer() {

  • super("KafkaConsumerTest", false);

  • Properties properties = new Properties();

  • properties.put("bootstrap.servers", "192.168.51.128:9092,192.168.51.128:9093,192.168.51.128:9094");

  • properties.put("group.id", "mygroup");

  • properties.put("enable.auto.commit", "true");

  • properties.put("auto.commit.interval.ms", "1000");

  • properties.put("session.timeout.ms", "30000");

  • properties.put("heartbeat.interval.ms", "10000");

  • properties.put("auto.offset.reset", "earliest");

  • properties.put("key.deserializer", "org.apache.kafka.common.serialization.IntegerDeserializer");

  • properties.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

  • this.consumer = new KafkaConsumer<Integer, String>(properties);

  • }

  • ?

  • @Override

  • public void doWork() {

  • consumer.subscribe(Arrays.asList("test2"));

  • ConsumerRecords<Integer, String>records = consumer.poll(1000);

  • for (ConsumerRecord record : records) {

  • System.out.println("topic = " + record.topic());

  • System.out.println("partition = " + record.partition());

  • System.out.println("key = " + record.key());

  • System.out.println("value = " + record.value());

  • }

  • }

  • }

  • ?

    消費者的測試類:

    ?

  • /**

  • * @ClassName MyConsumerTest

  • * @Description TODO

  • * @Author lingxiangxiang

  • * @Date 4:23 PM

  • * @Version 1.0

  • **/

  • public class MyConsumerTest {

  • public static void main(String[] args) {

  • MyKafkaConsumer consumer = new MyKafkaConsumer();

  • consumer.start();

  • System.out.println("==================");

  • }

  • }

  • ?

    ?

    ②消費者同步手動提交

    ?

    前面的消費者都是以自動提交 Offset 的方式對 Broker 中的消息進行消費的,但自動提交 可能會出現(xiàn)消息重復(fù)消費的情況。

    ?

    所以在生產(chǎn)環(huán)境下,很多時候需要對 Offset 進行手動提交, 以解決重復(fù)消費的問題。

    ?

    手動提交又可以劃分為同步提交、異步提交,同異步聯(lián)合提交。這些提交方式僅僅是 doWork() 方法不相同,其構(gòu)造器是相同的。

    ?

    所以下面首先在前面消費者類的基礎(chǔ)上進行構(gòu)造器的修改,然后再分別實現(xiàn)三種不同的提交方式。

    ?

    同步提交方式是,消費者向 Broker 提交 Offset 后等待 Broker 成功響應(yīng)。若沒有收到響應(yīng),則會重新提交,直到獲取到響應(yīng)。

    ?

    而在這個等待過程中,消費者是阻塞的。其嚴(yán)重影響了消費者的吞吐量。

    ?

    修改前面的 MyKafkaConsumer.java, 主要修改下面的配置:

    ?

  • import kafka.utils.ShutdownableThread;

  • import org.apache.kafka.clients.consumer.ConsumerRecord;

  • import org.apache.kafka.clients.consumer.ConsumerRecords;

  • import org.apache.kafka.clients.consumer.KafkaConsumer;

  • ?

  • import java.util.Arrays;

  • import java.util.Collections;

  • import java.util.Properties;

  • ?

  • /**

  • * @ClassName MyKafkaConsumer

  • * @Description TODO

  • * @Author lingxiangxiang

  • * @Date 4:12 PM

  • * @Version 1.0

  • **/

  • public class MyKafkaConsumer extends ShutdownableThread {

  • ?

  • private KafkaConsumer<Integer, String> consumer;

  • ?

  • public MyKafkaConsumer() {

  • super("KafkaConsumerTest", false);

  • Properties properties = new Properties();

  • properties.put("bootstrap.servers", "192.168.51.128:9092,192.168.51.128:9093,192.168.51.128:9094");

  • properties.put("group.id", "mygroup");

  • // 這里要修改成手動提交

  • properties.put("enable.auto.commit", "false");

  • // properties.put("auto.commit.interval.ms", "1000");

  • properties.put("session.timeout.ms", "30000");

  • properties.put("heartbeat.interval.ms", "10000");

  • properties.put("auto.offset.reset", "earliest");

  • properties.put("key.deserializer", "org.apache.kafka.common.serialization.IntegerDeserializer");

  • properties.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

  • this.consumer = new KafkaConsumer<Integer, String>(properties);

  • }

  • @Override

  • public void doWork() {

  • consumer.subscribe(Arrays.asList("test2"));

  • ConsumerRecords<Integer, String>records = consumer.poll(1000);

  • for (ConsumerRecord record : records) {

  • System.out.println("topic = " + record.topic());

  • System.out.println("partition = " + record.partition());

  • System.out.println("key = " + record.key());

  • System.out.println("value = " + record.value());

  • ?

  • //手動同步提交

  • consumer.commitSync();

  • }

  • ?

  • }

  • }

  • ?

    消費者異步手工提交

    ?

    手動同步提交方式需要等待 Broker 的成功響應(yīng),效率太低,影響消費者的吞吐量。

    ?

    異步提交方式是,消費者向 Broker 提交 Offset 后不用等待成功響應(yīng),所以其增加了消費者的吞吐量。

    ?

  • import kafka.utils.ShutdownableThread;

  • import org.apache.kafka.clients.consumer.ConsumerRecord;

  • import org.apache.kafka.clients.consumer.ConsumerRecords;

  • import org.apache.kafka.clients.consumer.KafkaConsumer;

  • ?

  • import java.util.Arrays;

  • import java.util.Collections;

  • import java.util.Properties;

  • ?

  • /**

  • * @ClassName MyKafkaConsumer

  • * @Description TODO

  • * @Author lingxiangxiang

  • * @Date 4:12 PM

  • * @Version 1.0

  • **/

  • public class MyKafkaConsumer extends ShutdownableThread {

  • ?

  • private KafkaConsumer<Integer, String> consumer;

  • ?

  • public MyKafkaConsumer() {

  • super("KafkaConsumerTest", false);

  • Properties properties = new Properties();

  • properties.put("bootstrap.servers", "192.168.51.128:9092,192.168.51.128:9093,192.168.51.128:9094");

  • properties.put("group.id", "mygroup");

  • // 這里要修改成手動提交

  • properties.put("enable.auto.commit", "false");

  • // properties.put("auto.commit.interval.ms", "1000");

  • properties.put("session.timeout.ms", "30000");

  • properties.put("heartbeat.interval.ms", "10000");

  • properties.put("auto.offset.reset", "earliest");

  • properties.put("key.deserializer", "org.apache.kafka.common.serialization.IntegerDeserializer");

  • properties.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

  • this.consumer = new KafkaConsumer<Integer, String>(properties);

  • }

  • ?

  • @Override

  • public void doWork() {

  • consumer.subscribe(Arrays.asList("test2"));

  • ConsumerRecords<Integer, String>records = consumer.poll(1000);

  • for (ConsumerRecord record : records) {

  • System.out.println("topic = " + record.topic());

  • System.out.println("partition = " + record.partition());

  • System.out.println("key = " + record.key());

  • System.out.println("value = " + record.value());

  • ?

  • //手動同步提交

  • // consumer.commitSync();

  • //手動異步提交

  • // consumer.commitAsync();

  • // 帶回調(diào)公共的手動異步提交

  • consumer.commitAsync((offsets, e) -> {

  • if(e != null) {

  • System.out.println("提交次數(shù), offsets = " + offsets);

  • System.out.println("exception = " + e);

  • }

  • });

  • }

  • }

  • }

  • ?

    Spring Boot 使用 Kafka

    ?

    現(xiàn)在大家的開發(fā)過程中,很多都用的是 Spring Boot 的項目,直接啟動了,如果還是用原生的 API,就是有點 Low 了啊,那 Kafka 是如何和 Spring Boot 進行聯(lián)合的呢?

    ?

    maven 配置:

    ?

  • <!-- https://mvnrepository.com/artifact/org.apache.kafka/kafka-clients -->

  • <dependency>

  • <groupId>org.apache.kafka</groupId>

  • <artifactId>kafka-clients</artifactId>

  • <version>2.1.1</version>

  • </dependency>

  • ?

    添加配置文件,在 application.properties 中加入如下配置信息:

    ?

    Kafka 連接地址:

    ?

  • spring.kafka.bootstrap-servers = 192.168.51.128:9092,10.231.128.96:9093,192.168.51.128:9094

  • ?

    生產(chǎn)者:

    ?

  • spring.kafka.producer.acks = 0

  • spring.kafka.producer.key-serializer = org.apache.kafka.common.serialization.StringSerializer

  • spring.kafka.producer.value-serializer = org.apache.kafka.common.serialization.StringSerializer

  • spring.kafka.producer.retries = 3

  • spring.kafka.producer.batch-size = 4096

  • spring.kafka.producer.buffer-memory = 33554432

  • spring.kafka.producer.compression-type = gzip

  • ?

    消費者:

    ?

  • spring.kafka.consumer.group-id = mygroup

  • spring.kafka.consumer.auto-commit-interval = 5000

  • spring.kafka.consumer.heartbeat-interval = 3000

  • spring.kafka.consumer.key-deserializer = org.apache.kafka.common.serialization.StringDeserializer

  • spring.kafka.consumer.value-deserializer = org.apache.kafka.common.serialization.StringDeserializer

  • spring.kafka.consumer.auto-offset-reset = earliest

  • spring.kafka.consumer.enable-auto-commit = true

  • # listenner, 標(biāo)識消費者監(jiān)聽的個數(shù)

  • spring.kafka.listener.concurrency = 8

  • # topic的名字

  • kafka.topic1 = topic1

  • ?

    生產(chǎn)者:

    ?

  • import lombok.extern.slf4j.Slf4j;

  • import org.springframework.beans.factory.annotation.Value;

  • import org.springframework.kafka.core.KafkaTemplate;

  • ?

  • @Service

  • @Slf4j

  • public class MyKafkaProducerServiceImpl implements MyKafkaProducerService {

  • @Resource

  • private KafkaTemplate<String, String> kafkaTemplate;

  • // 讀取配置文件

  • @Value("${kafka.topic1}")

  • private String topic;

  • ?

  • @Override

  • public void sendKafka() {

  • kafkaTemplate.send(topic, "hell world");

  • }

  • }

  • ?

    消費者:

    ?

  • @Component

  • @Slf4j

  • public class MyKafkaConsumer {

  • @KafkaListener(topics = "${kafka.topic1}")

  • public void listen(ConsumerRecord<?, ?> record) {

  • Optional<?> kafkaMessage = Optional.ofNullable(record.value());

  • if (kafkaMessage.isPresent()) {

  • log.info("----------------- record =" + record);

  • log.info("------------------ message =" + kafkaMessage.get());

  • }

  • 總結(jié)

    以上是生活随笔為你收集整理的掌握 Kafka的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

    免费看一级一片 | 黄色免费在线看 | 99在线精品免费视频九九视 | 国产免费叼嘿网站免费 | 免费毛片aaaaaa | www.福利视频 | 亚洲日本色 | 成人一级片免费看 | 中文字幕 成人 | 制服丝袜欧美 | 亚洲精品乱码久久久久久蜜桃不爽 | 国内精品在线观看视频 | 日韩网站免费观看 | 亚洲午夜精品一区二区三区电影院 | 色一级片| 人人澡av | 久久精品最新 | 国产精品一区二区美女视频免费看 | 欧美日韩一区二区三区在线免费观看 | 99热这里是精品 | 日韩美女久久 | 97免费在线观看视频 | 亚洲国产wwwccc36天堂 | 在线观看电影av | 精品视频专区 | 91精品国产自产在线观看 | 91在线区| 在线精品视频在线观看高清 | 国产一区二区三区视频在线 | 81国产精品久久久久久久久久 | 亚洲五月激情 | 99久久国产免费看 | 夜夜操网 | 在线看片91 | 日韩欧美视频在线免费观看 | 啪啪午夜免费 | 亚洲天天在线 | 日本久久免费视频 | 蜜臀91丨九色丨蝌蚪老版 | 国产亚洲成人网 | 中文字幕免费高清 | 久久这里只有精品9 | 国产成人精品三级 | 国产无套精品久久久久久 | 色综合久久久久综合体桃花网 | 超碰在线观看99 | 色99在线 | 国产成人一区二区三区在线观看 | 色姑娘综合天天 | 久久av免费 | 亚洲精品美女在线观看播放 | 韩国三级在线一区 | 2023亚洲精品国偷拍自产在线 | 91一区二区三区久久久久国产乱 | 婷婷在线免费 | 狠狠干夜夜操 | 亚洲综合狠狠干 | 亚洲免费视频在线观看 | 免费观看的黄色 | 99在线观看免费视频精品观看 | 狠狠的干狠狠的操 | 激情婷婷av| 国产69精品久久久久99 | 久久国产精品一区二区三区四区 | 亚洲一级免费观看 | 精品国产亚洲在线 | 五月激情五月激情 | a视频免费在线观看 | 亚洲电影院| 婷婷免费在线视频 | 一区二区三区免费在线观看 | 国产精品久久人 | 最近日本韩国中文字幕 | 亚洲国产精品成人va在线观看 | 国产黄在线 | 国内精品久久久久久久 | 久久电影中文字幕视频 | 国产精品系列在线 | 亚洲最大成人免费网站 | 欧美一级片在线播放 | 国产69久久久欧美一级 | 在线观看日韩av | 国产精品一级在线 | 久久久久久久久免费视频 | 激情五月婷婷综合 | 色国产在线| 欧美成人影音 | 欧美伦理一区二区 | 蜜桃视频成人在线观看 | 亚洲激情综合 | 欧美精品在线视频观看 | 中文字幕网站视频在线 | 日本午夜在线亚洲.国产 | 成人一级电影在线观看 | 久草网首页 | 91丨九色丨国产丨porny精品 | 日本在线观看中文字幕无线观看 | 免费开视频 | 国产亚洲va综合人人澡精品 | 日本乱视频 | 日韩色视频在线观看 | 免费av大片 | 亚洲理论在线观看 | 特级黄色片免费看 | 亚洲va综合va国产va中文 | 亚洲六月丁香色婷婷综合久久 | 超碰99人人 | 免费在线看成人av | a级片在线播放 | 国产精品99久久免费观看 | 国产色在线观看 | 77国产精品 | 亚洲日本一区二区在线 | 香蕉久久国产 | 久久精品3| 国产高清一 | 国内精品久久影院 | 国产一区网 | 久久精品999 | 欧美地下肉体性派对 | 91久久电影| 久久国产精品久久精品国产演员表 | 日本精品小视频 | 怡红院成人在线 | 日日干,天天干 | 久久精品久久久精品美女 | 国产色女| 色欧美日韩| 黄色小说免费在线观看 | 日本午夜在线亚洲.国产 | 激情av在线资源 | 最近中文字幕大全 | 91自拍视频在线观看 | 亚洲高清不卡av | 99热这里只有精品在线观看 | 欧美aⅴ在线观看 | 日b黄色片 | 热久久这里只有精品 | 国产主播大尺度精品福利免费 | 久久免费一 | 欧美日韩在线免费视频 | 日日操网| 精品久久一二三区 | 国产精品久久久久久久久免费看 | 日韩精品中文字幕在线不卡尤物 | 中文字幕第| 亚洲成人欧美 | 九九国产精品视频 | 久久久高清一区二区三区 | 日韩av福利在线 | www久久精品 | 91久久在线观看 | 日本性xxxxx 亚洲精品午夜久久久 | 日韩电影在线观看一区 | 在线看国产一区 | 国产91aaa| 五月天婷婷免费视频 | 国产第一页福利影院 | 久久精品久久精品久久精品 | 色婷婷综合视频在线观看 | 91久久偷偷做嫩草影院 | 欧美成人黄| 国产成人精品av久久 | www.午夜色.com | av在线之家电影网站 | 婷婷精品在线视频 | 毛片一级免费一级 | 欧美在线视频一区二区三区 | 色噜噜日韩精品欧美一区二区 | 日韩精品高清不卡 | 日韩欧美大片免费观看 | 极品中文字幕 | 天天碰天天操视频 | 91免费黄视频 | 手机av永久免费 | 亚洲国产一区二区精品专区 | 国产成人在线一区 | 国产精品露脸在线 | 国产不卡一二三区 | 99久热精品| 男女视频久久久 | 欧美巨大 | 亚洲高清av| 国产成人精品一区一区一区 | 成人国产亚洲 | 国产精品无av码在线观看 | 欧美精品久久久久久久 | 欧美日韩一二三四区 | 黄色福利网站 | 国产精品一区久久久久 | 在线网址你懂得 | 日韩激情在线视频 | 久久久久久久久久久久电影 | 久章操| 97国产情侣爱久久免费观看 | 免费视频你懂的 | 亚洲成人资源在线观看 | 日韩在线不卡 | a亚洲视频| 精品国产一区二区三区久久久蜜臀 | 亚洲闷骚少妇在线观看网站 | 又污又黄的网站 | 久久久久久久久久久久久久电影 | 久久精品一区二区 | 国产视频久久久 | 国产 精品 资源 | 欧美 日韩 性 | 婷婷五月情 | 人成免费网站 | 97超碰精品 | 久保带人 | www..com黄色片 | 98超碰人人| av短片在线观看 | 亚洲日本激情 | 久久精品网| 91高清在线 | 欧美成人a在线 | 国产精品美女视频 | 99这里都是精品 | 在线精品视频免费播放 | 黄色软件网站在线观看 | www.夜色.com | 成人a免费视频 | 夜夜骑首页 | 中文字幕在线一二 | 激情开心 | 日韩午夜精品 | 国产精品岛国久久久久久久久红粉 | 精品不卡视频 | 亚洲精品一区二区三区四区高清 | av在线免费观看黄 | 亚洲国产人午在线一二区 | 五月天激情综合 | 911免费视频 | 91精品一区二区三区蜜臀 | 在线观看国产麻豆 | 亚洲日本精品视频 | 一级一片免费观看 | 天天激情天天干 | 黄色特一级片 | 欧美成人h版 | 视频国产一区二区三区 | 涩涩网站在线看 | 亚洲最大成人网4388xx | 中文字幕无吗 | 自拍超碰在线 | 国产69久久 | 999精品视频| 国产精品美女久久久久aⅴ 干干夜夜 | 一级黄色大片 | 久久午夜剧场 | 麻豆精品视频在线观看免费 | 亚洲视频综合 | 性色xxxxhd| 99久久99视频| 啪啪精品 | 中文久草 | 在线午夜av| 国产精品69av | 久久精品99视频 | 中文字幕在线看视频国产 | 亚洲国产精品人久久电影 | 色婷婷色 | 97精品国产91久久久久久 | 国产黄免费 | 久热av | 中文字幕黄色av | 中文字幕 国产视频 | 日韩综合第一页 | 西西444www大胆高清图片 | 中文日韩在线视频 | 国产日韩在线一区 | 久久久久电影网站 | 久久免费视频在线观看6 | 国产精品午夜免费福利视频 | 在线观看国产麻豆 | 国产精品久久久久影院 | 中文字幕一区二区三区四区视频 | 日韩欧美一区二区三区视频 | 美女视频a美女大全免费下载蜜臀 | 九九免费在线视频 | 国产成人一区二区三区在线观看 | 欧美91片 | 天堂中文在线视频 | 国产又粗又猛又爽又黄的视频先 | 国产精品69av | 亚洲美女视频网 | 欧美一级片在线 | 狠狠色丁香久久婷婷综 | 亚州精品在线视频 | 看国产黄色片 | 狠狠躁日日躁狂躁夜夜躁 | 色婷婷色| 色婷婷色| 免费在线精品视频 | 久久9999久久免费精品国产 | 久久人人精品 | 手机在线黄色网址 | 亚洲高清av在线 | 一级久久久 | 日韩电影黄色 | bayu135国产精品视频 | 精品成人在线 | 成人一区二区三区在线 | 婷婷av网站 | 精品国产午夜 | 亚洲黄色免费观看 | 亚洲精品在线一区二区三区 | 毛片网站免费在线观看 | 尤物97国产精品久久精品国产 | 99久久精品国产一区二区三区 | 欧美日韩一区二区在线观看 | 色午夜影院 | 香蕉97视频观看在线观看 | 国产不卡免费av | 91精品国产综合久久婷婷香蕉 | 草久在线观看视频 | 久久,天天综合 | 日本性高潮视频 | 亚洲精品国产综合久久 | 日韩黄色中文字幕 | 一本一本久久a久久精品综合 | 91九色蝌蚪在线 | 中文资源在线观看 | 色婷婷中文 | 免费在线观看成人av | 久久免费成人精品视频 | 欧美精品久久久久a | 亚洲日本精品视频 | 中文字幕在线第一页 | 亚洲黄在线观看 | 国色综合| 超碰在线观看97 | 亚洲精品麻豆 | 激情喷水 | 中文字幕 第二区 | 久久久久久久久久久久亚洲 | 亚洲国产999 | 午夜资源站 | 99精品乱码国产在线观看 | 亚洲精品视频免费在线 | 91传媒在线看 | 日日婷婷夜日日天干 | 超碰人人乐 | 99在线视频免费观看 | 亚洲一区精品人人爽人人躁 | jizzjizzjizz亚洲| www.天堂av| .精品久久久麻豆国产精品 亚洲va欧美 | 久久久精品日本 | 黄色电影网站在线观看 | 国产精品99蜜臀久久不卡二区 | 午夜影院在线观看18 | 婷婷综合激情 | 91精品视频播放 | 国产少妇在线观看 | 午夜私人影院 | 精品国产99 | 亚洲情婷婷| 欧美狠狠色 | 亚洲国产精品va在线看黑人动漫 | 成人羞羞视频在线观看免费 | 天天鲁天天干天天射 | 久久三级视频 | 一区二区三区国 | 天天玩天天操天天射 | 国产不卡在线播放 | 成人黄色片免费 | 国产黄色片在线 | 亚洲成人网在线 | 国产理论片在线观看 | 亚洲丁香日韩 | 国产精品入口麻豆 | 99视频偷窥在线精品国自产拍 | 日日干av| 国产区精品| 97国产大学生情侣白嫩酒店 | 色吧久久| 美女免费视频网站 | 久久久网站 | 人人爽人人爽人人爽学生一级 | 干狠狠| 国产丝袜美腿在线 | 久久久久久久久久国产精品 | 99久久精品国产观看 | 欧美永久视频 | 国产精品高潮呻吟久久av无 | 日韩性色 | 久久久伊人网 | 丁香在线| 黄色aa久久| 日本中文字幕久久 | 中文字幕一区二区三区在线播放 | 国产一级在线免费观看 | 久久成人国产精品入口 | 亚洲四虎影院 | 午夜国产成人 | 久久久久成人精品 | 久草在线视频免赞 | 超碰在线最新网址 | 久久久久高清 | 国产一区二区三区四区大秀 | 日韩精品专区在线影院重磅 | 人人射av | 亚洲影视资源 | 麻花豆传媒mv在线观看 | 久久久精品二区 | 五月婷婷丁香综合 | 成人黄色大片网站 | 精品一区二区在线播放 | 婷婷亚洲最大 | 亚州国产精品视频 | 亚洲少妇天堂 | 亚洲国产精品99久久久久久久久 | 国产裸体永久免费视频网站 | 亚洲一区视频在线播放 | 国产精品久久久久久久久久久免费看 | 成人羞羞视频在线观看免费 | 9草在线 | 久久久美女| 天天综合网天天综合色 | 久久久久久精 | 色综合在| 天天天天色射综合 | 国产专区视频在线观看 | 欧美性生活免费 | 亚洲一区二区91 | 国产精品久久久久久久久久白浆 | www.com操| 久久婷婷丁香 | 毛片永久免费 | 97超级碰| 超碰在线最新地址 | 久久爽久久爽久久av东京爽 | 99自拍视频在线观看 | 天天天干 | 四虎影视8848dvd | 久久天天躁狠狠躁夜夜不卡公司 | a级国产片 | 久久久96 | 国产精品6 | 中文字幕高清在线播放 | 精品国产乱码久久久久久1区二区 | 久久天天躁 | 亚洲 欧洲 国产 日本 综合 | 韩国av一区二区三区在线观看 | 久久综合精品国产一区二区三区 | 麻豆极品| 日本精品xxxx | 正在播放 国产精品 | 久久久久亚洲精品 | 一级一片免费视频 | 制服丝袜欧美 | 免费看片亚洲 | 亚洲理论在线观看 | 亚洲免费在线观看视频 | 国产精品欧美久久久久无广告 | 欧美另类tv | 亚洲免费国产视频 | 国产精品久久久久久久久久久杏吧 | 欧美日韩免费在线视频 | 亚洲精品中文字幕在线 | 五月天婷婷在线观看视频 | 国产中文字幕视频在线 | 亚洲精品视频在线看 | 又色又爽又激情的59视频 | a在线观看免费视频 | 亚洲一区二区三区91 | 丁香视频全集免费观看 | 婷婷国产v亚洲v欧美久久 | 成人理论在线观看 | 99精品免费久久久久久久久日本 | av高清网站在线观看 | 亚洲 综合 精品 | 中文国产在线观看 | 丁香婷婷久久 | 久久国产视屏 | 最新国产福利 | 香蕉视频在线网站 | 国产录像在线观看 | 伊人久久精品久久亚洲一区 | 国产精品扒开做爽爽的视频 | 天天干,天天射,天天操,天天摸 | 免费亚洲婷婷 | 国产精品手机在线播放 | 成片视频免费观看 | 99精品国产在热久久下载 | 久久一区二区三区日韩 | 91在线视频精品 | 久久久久久毛片 | 亚洲无人区小视频 | 精品国产亚洲在线 | 日韩手机在线观看 | 亚洲欧洲精品一区 | 9999在线| 日本中文字幕电影在线免费观看 | 日黄网站 | 久久国产女人 | 国产精品99免视看9 国产精品毛片一区视频 | 亚洲国产婷婷 | 91在线porny国产在线看 | 成人 国产 在线 | 欧美日韩一区二区三区视频 | 亚洲精品乱码久久久久久按摩 | 麻豆一区二区 | 国产精品网在线观看 | 97中文字幕| 国产正在播放 | 天天天插 | 国产一级电影免费观看 | 在线观看 国产 | 亚洲第一区在线观看 | 日韩高清www | 九九九九热精品免费视频点播观看 | 免费情趣视频 | 亚洲成人资源网 | av成人在线看 | 国产精品白丝jk白祙 | 五月天天av| 99热播精品 | 99精品免费久久久久久久久日本 | 成年人黄色免费看 | 久久免费高清视频 | 久久艹国产 | 欧美午夜a | 激情视频免费在线 | 欧美一区二区三区在线播放 | 亚洲精品美女久久久 | 黄色成人在线观看 | 麻豆久久久久 | 亚洲一级电影视频 | 四虎国产精品免费观看视频优播 | 午夜av免费观看 | 91在线视频观看免费 | 国产精品都在这里 | 开心激情婷婷 | 91精品视频在线观看免费 | 久久亚洲视频 | 婷婷激情av | 国产婷婷精品 | 国产精品久久久久久久久久久久午夜片 | 久久精品视频播放 | 日韩在线小视频 | 亚洲国产视频直播 | 黄色av成人在线观看 | 欧美日韩视频在线一区 | 99精品久久99久久久久 | 五月天色综合 | 天堂av色婷婷一区二区三区 | 精品91久久久久 | 深爱激情婷婷网 | 亚洲一区网 | 国产精品久久久久高潮 | www.天天干.com | 国产一二区免费视频 | 91女神的呻吟细腰翘臀美女 | 久久国产二区 | 99热这里有 | 激情狠狠干 | 中文av资源站 | 人人爽人人射 | 又爽又黄又无遮挡网站动态图 | 久久久国产精品视频 | 国产精品一区二区三区视频免费 | 91精品国产欧美一区二区 | 欧美日高清视频 | 一区二区免费不卡在线 | 在线视频观看你懂的 | 波多野结衣精品视频 | 最近中文字幕 | 国产高清在线永久 | 久久精品视频18 | 天天色影院 | 亚洲国产中文字幕在线观看 | 国产免费嫩草影院 | 免费色网 | 国产精品一区二区久久国产 | 天堂av在线中文在线 | 亚洲视频2| 免费在线精品视频 | a色网站 | 亚洲精品乱码久久久久久久久久 | www国产在线 | 久草免费在线观看 | 欧美小视频在线 | 欧美激情综合网 | 亚洲一级电影在线观看 | 亚洲成人资源在线观看 | 91av视屏 | 免费福利在线播放 | 成年人免费看片网站 | 成人性生交视频 | 91福利区一区二区三区 | 久久久网站 | 天天射天天射天天射 | 97超碰免费在线观看 | 日日夜夜网站 | 9999国产| 免费色av | av在线播放网址 | 久久99精品国产99久久6尤 | 五月天综合在线 | 国产美女精品久久久 | 色婷婷成人 | 色网站国产精品 | 日本久久精品视频 | 婷婷www | 日韩高清一区二区 | 国产一级h | 欧美日韩不卡一区 | 中文字幕中文字幕在线中文字幕三区 | 国产黄色免费观看 | 91精品国产99久久久久久久 | 亚洲成 人精品 | 久久视频中文字幕 | 国产精品免费观看久久 | 久久国产一二区 | 国产精品久久一区二区三区不卡 | 美国av片在线观看 | 日韩专区在线观看 | 欧美日韩免费一区二区 | 九九九九色 | 91香蕉视频污在线 | 在线成人小视频 | 日韩h在线观看 | 99中文字幕在线观看 | 亚洲最大激情中文字幕 | 69精品在线 | 黄色成人av | 国产成人精品综合久久久久99 | 五月激情丁香婷婷 | 中文字幕在线中文 | 美女国产精品 | 天天综合网在线 | 黄色三级网站在线观看 | 天天草天天 | 日韩一区二区三区免费视频 | 亚洲国产成人精品在线观看 | 91精品国产福利 | 黄网在线免费观看 | 亚洲精品中文在线资源 | av综合站 | 2019国产精品 | 成人av观看 | 成年人在线观看网站 | 成人精品一区二区三区中文字幕 | 二区三区av | www国产一区 | av一级网站| 最近中文字幕免费av | 午夜国产在线观看 | 中文字幕av在线不卡 | 国产精品手机视频 | 欧美日韩高清在线 | 在线播放日韩av | 9幺看片 | 国产专区在线 | 日韩成人精品一区二区三区 | 免费大片av | 免费在线观看av网站 | 国产精品第2页 | 在线免费观看国产黄色 | 免费黄色小网站 | 亚洲草视频| 国产亚洲精品久久久久5区 成人h电影在线观看 | 亚洲丝袜一区 | 草久中文字幕 | 天天干天天草天天爽 | 日本特黄一级片 | 国内精品久久久久久久影视简单 | 91大神免费视频 | 99精品免费久久久久久日本 | 日韩电影黄色 | 亚洲资源在线观看 | av888av.com| 国产在线播放不卡 | 中文字幕亚洲高清 | 狠狠操狠狠插 | 国产亚洲欧洲 | 色鬼综合网 | 天天草天天草 | 国产综合福利在线 | 91黄色在线观看 | 天天操网 | 亚洲激情一区二区三区 | 国产一区二区免费 | 日韩两性视频 | 亚洲欧美成人综合 | 五月婷婷激情五月 | 91av视频在线免费观看 | 亚洲人久久 | 免费观看一区二区三区视频 | 一区二区激情 | 日韩欧美精品一区 | 91久久久国产精品 | 在线看免费 | 99久久精品免费看国产免费软件 | 成人一区二区三区在线观看 | 亚洲在线精品视频 | 成年人黄色大片在线 | 亚洲免费在线观看视频 | 97超级碰碰碰视频在线观看 | 日本不卡123区| 日本系列中文字幕 | 日本99久久| 中文理论片 | 日韩免费一区二区 | 久久综合偷偷噜噜噜色 | 久久99国产视频 | 久久久免费视频播放 | 日日夜夜91 | 国产一二三在线视频 | 久久五月婷婷丁香社区 | 亚洲一区美女视频在线观看免费 | 99久久精品免费看国产麻豆 | 日韩美在线 | 久久久官网| 国产精品 9999| 玖玖爱在线观看 | www国产亚洲 | 免费高清av在线看 | 欧美伦理电影一区二区 | 黄色av一区 | 日韩电影在线一区二区 | 欧美日韩一区二区免费在线观看 | 久久99亚洲网美利坚合众国 | 97超碰国产在线 | 精品久久五月天 | 久久 地址 | 国产亚洲一区 | 99在线免费观看视频 | 狠狠综合网 | 免费视频一区 | av在线超碰 | 亚洲黄色免费观看 | 999日韩| 日韩电影中文,亚洲精品乱码 | 久久国产精品偷 | 超碰97成人 | 天天躁天天操 | 精品国产一区二区三区蜜臀 | 97色婷婷| 成年人免费在线观看 | 久久久精品国产免费观看一区二区 | 五月天堂网 | 五月婷婷影视 | 人人干人人艹 | 亚洲国产中文字幕在线观看 | 麻豆国产精品视频 | 99精品国产免费久久久久久下载 | 欧女人精69xxxxxx | 天天干,天天射,天天操,天天摸 | 999久久a精品合区久久久 | 国产精品原创av片国产免费 | 91在线九色 | 9999免费视频 | 久久久福利视频 | 日韩免费观看高清 | 国产成人三级在线观看 | 91视频高清完整版 | 精品国产伦一区二区三区观看说明 | 四虎成人精品永久免费av | 97视频人人澡人人爽 | 亚洲精品短视频 | 欧美最猛性xxxxx(亚洲精品) | 国产欧美精品一区二区三区 | 天天射天天操天天干 | 欧美日韩视频一区二区三区 | 九九免费观看视频 | 国产一级片毛片 | 日韩特黄一级欧美毛片特黄 | 欧美日韩不卡一区 | 在线观看岛国av | 国产理论一区二区三区 | 国产亚洲久一区二区 | 成人黄性视频 | 一级成人在线 | 色一色在线 | 国产精品一区二区久久 | 国产精品毛片一区 | 日日躁夜夜躁aaaaxxxx | 久久草精品 | 亚在线播放中文视频 | 日韩中文字幕在线观看 | 黄色一级大片在线免费看国产一 | 91porny九色在线播放 | 久久人人插 | 天天干天天干天天干天天干天天干天天干 | 丁香六月综合网 | 在线免费高清一区二区三区 | 久久一本综合 | 91成人免费在线 | 欧美极品在线播放 | 99av国产精品欲麻豆 | 国产成人一区二区三区 | 欧美日韩国产高清视频 | 婷婷日日| 中文字幕电影在线 | 精品中文字幕在线观看 | 日韩在线观看网址 | 97超级碰碰 | 久久精品伊人 | 国产在线观看二区 | av在线免费播放网站 | 亚洲一区二区三区四区在线视频 | 欧美日韩国产网站 | 免费视频一区二区 | 麻豆传媒电影在线观看 | 欧美日韩综合在线 | 四虎国产视频 | 日韩网站在线播放 | 欧美日韩高清国产 | 国产成人在线看 | 狠狠狠狠狠狠 | 日韩一区正在播放 | 免费在线观看国产精品 | 最近最新mv字幕免费观看 | 日日碰狠狠添天天爽超碰97久久 | 国产精品麻豆视频 | 精品国模一区二区三区 | 中文字幕 在线 一 二 | 欧美一级看片 | 欧美另类xxx | 中文字幕精品www乱入免费视频 | 久久久久久久久久久网 | av高清在线观看 | 久久99久久久久 | 国产一级性生活 | 国产污视频在线观看 | 亚洲综合视频网 | 国产96av | 国产精品九九九九九九 | 婷婷五月在线视频 | 涩涩爱夜夜爱 | 久久情爱 | 成年性视频 | 亚洲精品美女视频 | 91污污 | 国产成人中文字幕 | 18国产精品白浆在线观看免费 | 欧美在线观看视频 | 国产成人香蕉 | 黄色免费大片 | 国产中文欧美日韩在线 | 91女子私密保健养生少妇 | 国产美女精品视频免费观看 | 精品一区二区三区久久 | www.av免费| 国产1区在线 | 99国产精品久久久久久久久久 | 国产精品久久伊人 | 日韩毛片在线播放 | 91丨精品丨蝌蚪丨白丝jk | 国产精品资源在线 | 高清不卡一区二区在线 | 96视频免费在线观看 | 一区二区三区国产欧美 | 天堂在线一区二区三区 | 91免费的视频在线播放 | av蜜桃在线 | 精品产品国产在线不卡 | 国内精品久久久久久久影视麻豆 | 中文在线字幕免费观看 | 欧美一区三区四区 | 亚洲午夜av电影 | 一区二区三区四区久久 | 久久久久久久久免费视频 | www.天天操| 久久色在线观看 | 国产清纯在线 | 日韩一级电影网站 | 四虎永久网站 | 欧美日韩中文字幕综合视频 | 国产 一区二区三区 在线 | 丁香六月婷婷开心 | 在线成人免费电影 | 美女视频黄在线观看 | 99色在线观看视频 | 免费亚洲成人 | 久久久国产电影 | 免费精品在线视频 | 摸bbb搡bbb搡bbbb | 久草男人天堂 | 国产1区2区3区在线 亚洲自拍偷拍色图 | 91视频-88av | 亚洲 欧美 日韩 综合 | av丁香 | 天天射天天射天天射 | 国产主播大尺度精品福利免费 | 色婷婷国产在线 | 久久免费在线观看视频 | 美女久久一区 | 欧美精品在线视频 | 丁香五月亚洲综合在线 | 一级免费片 | 欧美国产日韩一区二区三区 | 亚洲一区二区三区毛片 | 美女一二三区 | 五月黄色 | 色综合久久久久综合体 | 丁香婷婷激情国产高清秒播 | 九9热这里真品2 | 亚洲天天摸日日摸天天欢 | 超碰国产在线播放 | 天堂在线一区 | 超碰99在线 | 免费观看黄 | 91精品视频一区二区三区 | 天天干天天想 | 天天看天天操 | 黄色特级一级片 | 免费人成在线观看网站 | 国产亚洲精品久久久久秋 | 狠狠色狠狠色综合系列 | 五月婷婷天堂 | 欧美日韩不卡一区 | 国产录像在线观看 | 精品亚洲午夜久久久久91 | 欧美精品久久久久久久 | 国内精品在线看 | 69亚洲视频| 亚洲精品女 | 国产精品久久久久久久妇 | 最近更新好看的中文字幕 | 亚洲最新精品 | 国产高清视频在线免费观看 | 黄色在线视频网址 | 国产在线无 | 久久免费影院 | 免费在线成人av | 视频在线99 | 激情动态 | 国产一区在线视频 | 色综合久久久久久久久五月 | 色射爱 | 99电影456麻豆 | 国产小视频在线免费观看 | 日韩另类在线 | 日韩免费视频在线观看 | 国产精品久久久久国产a级 激情综合中文娱乐网 | 在线看一区二区 | 亚洲日日射 | 国产精品久久久久久久免费大片 | 丁香婷婷激情网 | 国产精品永久免费观看 | 美女视频网 | 丁香花在线观看免费完整版视频 | 蜜臀av一区二区 | 天天操天天操天天操天天操天天操 | 日韩一级成人av | 国产日韩精品一区二区三区 | 亚洲尺码电影av久久 | 久草9视频 | 久久任你操 | 手机在线看a | 色综合久 | 91久久国产综合精品女同国语 | 免费的国产精品 | 综合网成人| 亚洲在线视频免费观看 | 超级av在线| 亚洲激情视频在线观看 | 国产女人18毛片水真多18精品 | 五月天色站 | 日日干美女 | 91精品色| 欧美激情精品久久久久久免费 | 亚洲国产精品资源 | 国产视频日韩 | 亚洲三级在线免费观看 | 欧美日韩国产一区二区三区 | 色.com| 亚洲禁18久人片 | 久久亚洲二区 | 中文字幕在线观看免费观看 | 狠狠狠色| 91片在线观看 | av中文在线播放 | 在线观看av小说 | 偷拍久久久 | 激情网在线视频 | 91成年人视频 | 婷婷色网视频在线播放 | 国产成人精品a | 97热视频 | 精品在线观看一区二区 | 夜夜澡人模人人添人人看 | 国产玖玖精品视频 | 日韩高清一 | 免费a级大片 | 九九精品视频在线 | 青春草国产视频 | 五月天丁香亚洲 | 日韩在线视频线视频免费网站 | 天天干天天操av | 在线v片免费观看视频 | 国产成人在线播放 |