日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

取本地数据_深入理解Kafka服务端之Follower副本如何同步Leader副本的数据

發(fā)布時間:2023/12/10 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 取本地数据_深入理解Kafka服务端之Follower副本如何同步Leader副本的数据 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
一、場景分析Kafka采用的是主寫主讀的方式,即客戶端的讀寫請求都由分區(qū)的Leader副本處理,那么Follower副本要想保證和Leader副本數(shù)據(jù)一致,就需要不斷地從Leader副本拉取消息來進行同步。由于同一個分區(qū)的Leader副本和Follower副本分布在不同的節(jié)點上,所以同步的過程可以簡單概括為:Follower副本所在節(jié)點封裝拉取數(shù)據(jù)的請求并發(fā)送給Leader副本所在節(jié)點 → Leader副本所在節(jié)點接收拉取數(shù)據(jù)的請求并進行處理,然后返回響應(yīng) → Follower副本所在節(jié)點接收到返回的響應(yīng)并進行處理。這個過程中封裝拉取請求和處理返回的響應(yīng)是Follower副本所在節(jié)點的一個單獨的線程完成的。二、圖示說明

????假設(shè)某主題只有1個分區(qū),該分區(qū)有兩個副本:Leader 副本在 Broker1 上,Follower 副本在 Broker2 上,其 Leader 副本寫入數(shù)據(jù)和 Follower 副本同步數(shù)據(jù)的流程如下圖:

三、源碼分析Kafka分區(qū)的Leader副本接收客戶端生產(chǎn)的數(shù)據(jù),寫入本地存儲;然后Follower副本拉取數(shù)據(jù)寫入本地存儲,并更新一系列關(guān)鍵的偏移量。整個流程比較復(fù)雜,這里先通過一個簡單的方法調(diào)用流程來看一下這個過程:1.leader?副本將數(shù)據(jù)寫入本地磁盤 KafkaApis.handleProduceRequest(){ replicaManager.appendRecords(){ appendToLocalLog(){ Partition.appendRecordsToLeader(){ Log.appendAsLeader(){ Log.append(){ //通過LogSegment.append()方法寫入磁盤 LogSegment.append() } } } } } }2.leader 副本更新LEO KafkaApis.handleProduceRequest(){ replicaManager.appendRecords(){ appendToLocalLog(){ Partition.appendRecordsToLeader(){ Log.appendAsLeader(){ Log.append(){ //更新Leader副本的LEO值 updateLogEndOffset(appendInfo.lastOffset + 1) } } } } } }3.follower?副本同步數(shù)據(jù),攜帶自身的LEO AbstractFetchThread.doWork(){ maybeFetch(){ buildFetch(fetchStates){ //這里的fetchState.fetchOffset 就是Follower副本的LEO值 builder.add(topicPartition, new FetchRequest.PartitionData( fetchState.fetchOffset, logStartOffset, fetchSize, Optional.of(fetchState.currentLeaderEpoch))) } } }4.leader 副本更新本地保存的Follower副本的LEO ReplicaManager.fetchMessages(){ //獲取讀取結(jié)果 val logReadResults = readFromLog(){ if (isFromFollower) updateFollowerLogReadResults(replicaId, result){ //TODO 更新leader保存的各個follower副本的LEO partition.updateReplicaLogReadResult(replica, readResult){ //TODO 最終更新所有的replica的LEO的值 replica.updateLogReadResult(logReadResult){ //更新LEO對象 logEndOffsetMetadata = logReadResult.info.fetchOffsetMetadata } } } } }5.leader 副本嘗試更新ISR列表 ReplicaManager.fetchMessages(){ //獲取讀取結(jié)果 val logReadResults = readFromLog(){ if (isFromFollower) updateFollowerLogReadResults(replicaId, result){ //TODO 嘗試更新ISR列表 val leaderHWIncremented = maybeExpandIsr(replicaId, logReadResult){ //更新ISR列表 updateIsr(newInSyncReplicas) } } } }6.leader 副本更新HW ReplicaManager.fetchMessages(){ //獲取讀取結(jié)果 val logReadResults = readFromLog(){ if (isFromFollower) updateFollowerLogReadResults(replicaId, result){ //TODO 嘗試更新ISR列表及Leader副本的HW val leaderHWIncremented = maybeExpandIsr(replicaId, logReadResult){ //TODO 嘗試更新leader的HW maybeIncrementLeaderHW(leaderReplica, logReadResult.fetchTimeMs){ //取ISR列表中副本的最小的LEO作為新的HW val newHighWatermark = allLogEndOffsets.min(new LogOffsetMetadata.OffsetOrdering) //獲取舊的HW val oldHighWatermark = leaderReplica.highWatermark //如果新的HW值大于舊的HW值,就更新 if (oldHighWatermark.messageOffset < newHighWatermark.messageOffset || (oldHighWatermark.messageOffset == newHighWatermark.messageOffset && oldHighWatermark.onOlderSegment(newHighWatermark))) { //更新 Leader 副本的 HW????????????????????????????leaderReplica.highWatermark?=?newHighWatermark } } } } } }7.leader 副本給 follower副本 返回數(shù)據(jù),攜帶leader 副本的 HW 值 ReplicaManager.fetchMessages(){ //獲取讀取結(jié)果 val logReadResults = readFromLog(){ readFromLocalLog(){ read(){ val readInfo = partition.readRecords(){ //獲取Leader Replica的高水位 val initialHighWatermark = localReplica.highWatermark.messageOffset } } } } }8.follower 副本寫入數(shù)據(jù),更新自身LEO、 ReplicaFetcherThread.processPartitionData(){ partition.appendRecordsToFollowerOrFutureReplica(records, isFuture = false){ doAppendRecordsToFollowerOrFutureReplica(){ Log.appendAsFollower(){ Log.append(){ //更新Follower副本的LEO值 updateLogEndOffset(appendInfo.lastOffset + 1) } } } } }9.follower 副本更新本地的 HW 值 ReplicaFetcherThread.processPartitionData(){ //根據(jù)leader返回的HW,更新Follower本地的HW:取Follower本地LEO 和 Leader HW 的較小值 val followerHighWatermark = replica.logEndOffset.min(partitionData.highWatermark) //TODO 更新Follower副本的 HW 對象 replica.highWatermark = new LogOffsetMetadata(followerHighWatermark)??}注意:
  • 對于HW,Leader 副本和 Follower 副本只保存自身的

  • 對于LEO,Follower 副本只保存自身的,但是 Leader 副本除了保存自身的外,還會保存所有 Follower 副本的 LEO 值

  • 無論是Leader副本所在節(jié)點,還是Follower副本所在節(jié)點,分區(qū)對應(yīng)的Partition 對象都會保存所有的副本對象,但是只有本地副本對象有對應(yīng)的日志文件

整個數(shù)據(jù)寫入及同步的過程分為九個步驟:

  • leader 副本將數(shù)據(jù)寫入本地磁盤
  • leader?副本更新 LEO
  • follower 副本發(fā)送同步數(shù)據(jù)請求,攜帶自身的 LEO
  • leader 副本更新本地保存的其它副本的 LEO
  • leader 副本嘗試更新 ISR 列表
  • leader?副本更新 HW
  • leader 副本給 follower 副本返回數(shù)據(jù),攜帶 leader 副本的 HW 值
  • follower 副本接收響應(yīng)并寫入數(shù)據(jù),更新自身 LEO
  • follower 副本更新本地的 HW 值
  • ? ?下面具體分析這幾個步驟。第一、二步在分析日志對象的寫數(shù)據(jù)流程時已經(jīng)詳細介紹過,這里不再贅述(《深入理解Kafka服務(wù)端之日志對象的讀寫數(shù)據(jù)流程》)。?對于后面的幾個步驟,由于發(fā)生在不同的節(jié)點上,并沒有按照這個順序進行分析,而是分成了

    • Follower副本的相關(guān)操作:即 第三步、第八步、第九步
    • Leader副本的相關(guān)操作:即 第四步、第五步、第六步、第七步
    上面提到,Follower副本拉取數(shù)據(jù)是通過一個單獨的線程完成的,所以在分析這幾個步驟之前,先看一下這個線程相關(guān)的類:
    • 抽象類:AbstractFetcherThread
    • 實現(xiàn)類:ReplicaFetcherThread
    先看一下 AbstractFetcherThread 類的定義:abstract class AbstractFetcherThread(name: String,//線程名稱 clientId: String,//Cliend ID,用于日志輸出 val sourceBroker: BrokerEndPoint,//數(shù)據(jù)源Broker地址 failedPartitions: FailedPartitions,//線程處理過程報錯的分區(qū)集合 fetchBackOffMs: Int = 0,//拉取的重試間隔,默認是 Broker 端參數(shù) replica.fetch.backoff.ms 值。 isInterruptible: Boolean = true)//是否允許線程中斷 extends ShutdownableThread(name, isInterruptible) { type FetchData = FetchResponse.PartitionData[Records] type EpochData = OffsetsForLeaderEpochRequest.PartitionData //泛型 PartitionFetchState:表征分區(qū)讀取狀態(tài),包含已讀取偏移量和對應(yīng)的副本讀取狀態(tài) //副本狀態(tài)由 ReplicaState 接口定義,包含 讀取中 和 截斷中 兩個 private val partitionStates = new PartitionStates[PartitionFetchState] ...}

    其中,type 的用法是:給指定的類起一個別名,如:

    type FetchData = FetchResponse.PartitionData[Records]

    后面就可以用 FetchData 來表示 FetchResponse.PartitionData[Records] 類;EpochData 同理。

    ????FetchResponse.PartitionData:FetchResponse是封裝的FETCH請求的響應(yīng)類,PartitionData是一個嵌套類,表示響應(yīng)中單個分區(qū)的拉取信息,包括對應(yīng)Leader副本的高水位,分區(qū)日志的起始偏移量,拉取到的消息集合等。

    public static final class PartitionData<T extends BaseRecords> { public final Errors error;//錯誤碼 public final long highWatermark;//從Leader返回的分區(qū)的高水位值 public final long lastStableOffset;// 最新LSO值 public final long logStartOffset;//日志起始偏移量 public final Optional preferredReadReplica;// 期望的Read Replica;KAFKA 2.4之后支持部分Follower副本可以對外提供讀服務(wù) public final List abortedTransactions;// 該分區(qū)對應(yīng)的已終止事務(wù)列表 public final T records;//消息集合}OffsetsForLeaderEpochRequest.PartitionData:里面包含了Follower副本在本地保存的leader epoch 和從Leader副本獲取到的leader epochpublic static class PartitionData { public final Optional currentLeaderEpoch; public final int leaderEpoch;}分區(qū)讀取的狀態(tài):

    ????PartitionFetchState:樣例類,用來表征分區(qū)的讀取狀態(tài)。包含已拉取的偏移量,當前l(fā)eader的epoch,副本讀取狀態(tài)等

    case class PartitionFetchState(fetchOffset: Long,//已拉取的偏移量 currentLeaderEpoch: Int,//當前epoch delay: DelayedItem, state: ReplicaState//副本讀取狀態(tài) ) { //表征分區(qū)的讀取狀態(tài) //1.可拉取,表明副本獲取線程當前能夠讀取數(shù)據(jù)。判斷條件是:副本處于Fetching且未被推遲執(zhí)行 def isReadyForFetch: Boolean = state == Fetching && !isDelayed //2.截斷中,表明分區(qū)副本正在執(zhí)行截斷操作(比如該副本剛剛成為 Follower 副本)。判斷條件是:副本處于Truncating且未被推遲執(zhí)行 def isTruncating: Boolean = state == Truncating && !isDelayed //3.被推遲,表明副本獲取線程獲取數(shù)據(jù)時出現(xiàn)錯誤,需要等待一段時間后重試。判斷條件是:存在未過期的延遲任務(wù) def isDelayed: Boolean = delay.getDelay(TimeUnit.MILLISECONDS) > 0}分區(qū)讀取狀態(tài)分為三種:
    • isReadyForFetch:可拉取,表明副本獲取線程當前能夠讀取數(shù)據(jù)。判斷條件是:副本處于Fetching且未被推遲執(zhí)行
    • isTruncating:截斷中,表明分區(qū)副本正在執(zhí)行截斷操作(比如該副本剛剛成為 Follower 副本)。判斷條件是:副本處于Truncating且未被推遲執(zhí)行
    • isDelayed:被推遲,表明副本獲取線程獲取數(shù)據(jù)時出現(xiàn)錯誤,需要等待一段時間后重試。判斷條件是:存在未過期的延遲任務(wù)

    副本讀取的狀態(tài)

    ????ReplicaState:特質(zhì),用來表征副本讀取狀態(tài)。

    sealed trait ReplicaState//截斷中case object Truncating extends ReplicaState//拉取中case object Fetching extends ReplicaState副本讀取狀態(tài)分為兩種:
    • Truncating:截斷中
    • Fetching:拉取中
    對應(yīng)上面的拉取數(shù)據(jù)流程,AbstractFetchThread定義了相關(guān)的方法:
    • buildFetch:封裝拉取數(shù)據(jù)的請求
    • truncate:進行日志截斷
    • processPartitionData:處理返回的響應(yīng)
    • doWork:將上面定義的三個方法串聯(lián)起來,形成一個閉環(huán),并不斷地重復(fù)執(zhí)行。從而實現(xiàn)從Leader副本所在的節(jié)點同步消息
    在 AbstractFetchThread 中,前三個定義的都是抽象方法,具體的方法實現(xiàn)在其實現(xiàn)類 ReplicaFetcherThread,其定義如下class ReplicaFetcherThread(name: String, fetcherId: Int,//Follower 拉取的線程 Id,也就是線程的編號。 // 單臺 Broker 上,允許存在多個 ReplicaFetcherThread 線程。 // Broker 端參數(shù) num.replica.fetchers,決定了 Kafka 到底創(chuàng)建多少個 Follower 拉取線程。 sourceBroker: BrokerEndPoint, brokerConfig: KafkaConfig,//服務(wù)端配置類,用來獲取配置信息 failedPartitions: FailedPartitions, replicaMgr: ReplicaManager,//副本管理器。該線程類通過副本管理器來獲取分區(qū)對象、副本對象以及它們下面的日志對象。 metrics: Metrics, time: Time, quota: ReplicaQuota,//用做限流。作用是控制 Follower 副本拉取速度 leaderEndpointBlockingSend: Option[BlockingSend] = None//用于實現(xiàn)同步發(fā)送請求的類。 // 所謂的同步發(fā)送,是指該線程使用它給指定 Broker 發(fā)送請求,然后線程處于阻塞狀態(tài),直到接收到 Broker 返回的 Response。 )extends AbstractFetcherThread( name = name, clientId = name, sourceBroker = sourceBroker, failedPartitions, fetchBackOffMs = brokerConfig.replicaFetchBackoffMs, isInterruptible = false) { //Follower副本所在Broker的Id private val replicaId = brokerConfig.brokerId //用于執(zhí)行請求發(fā)送的類 private val leaderEndpoint = leaderEndpointBlockingSend.getOrElse( new ReplicaFetcherBlockingSend(sourceBroker, brokerConfig, metrics, time, fetcherId, s"broker-$replicaId-fetcher-$fetcherId", logContext)) //Follower發(fā)送的FETCH請求被處理返回前的最長等待時間,由參數(shù):replica.fetch.wait.max.ms 配置,默認 500 毫秒 private val maxWait = brokerConfig.replicaFetchWaitMaxMs //每個FETCH Response返回前必須要累積的最少字節(jié)數(shù),由參數(shù):replica.fetch.min.bytes 配置,默認 1 字節(jié) private val minBytes = brokerConfig.replicaFetchMinBytes //每個合法FETCH Response的最大字節(jié)數(shù),由參數(shù):replica.fetch.response.max.bytes 配置,默認 10 M private val maxBytes = brokerConfig.replicaFetchResponseMaxBytes //單個分區(qū)能夠獲取到的最大字節(jié)數(shù),由參數(shù):replica.fetch.max.bytes 配置,默認 1 M private val fetchSize = brokerConfig.replicaFetchMaxBytes ...}

    buildFetch() 方法:為指定分區(qū)集合構(gòu)建對應(yīng)的FetchRequest.Builder 對象,而該對象是構(gòu)建 FetchRequest 的核心組件。

    這個方法中有一個重要的操作:

    • 封裝拉取請求時,攜帶了Follower副本的 LogStartOffset 和 LEO 值(對應(yīng)同步數(shù)據(jù)的第三步)

    override def buildFetch(partitionMap: Map[TopicPartition, PartitionFetchState]): ResultWithPartitions[Option[FetchRequest.Builder]] = { //定義一個保存出錯分區(qū)的集合 val partitionsWithError = mutable.Set[TopicPartition]() val builder = fetchSessionHandler.newBuilder() // 遍歷每個分區(qū),將處于可獲取狀態(tài)的分區(qū)添加到builder后續(xù)統(tǒng)一處理 // 對于有錯誤的分區(qū)加入到出錯分區(qū)集合 partitionMap.foreach { case (topicPartition, fetchState) => //如果分區(qū)的狀態(tài)是可拉取的,且該分區(qū)未對follower限流 if (fetchState.isReadyForFetch && !shouldFollowerThrottle(quota, topicPartition)) { try {??????????//獲取本地Follower副本保存的分區(qū)日志的logStartOffset val logStartOffset = replicaMgr.localReplicaOrException(topicPartition).logStartOffset /**將分區(qū)和對應(yīng)的PartitionData添加到builder,注意這里的PartitionData對應(yīng)的是拉取請求FetchRequest,里面封裝了拉取請求的元數(shù)據(jù)信息,如: * fetchOffset:拉取消息的起始偏移量,也就是Follower副本的LEO * currentLeaderEpoch:Follower副本保存的leader epoch值 */ builder.add(topicPartition, new FetchRequest.PartitionData( fetchState.fetchOffset, logStartOffset, fetchSize, Optional.of(fetchState.currentLeaderEpoch))) } catch { case _: KafkaStorageException => //如果有異常,將該分區(qū)添加到出錯分區(qū)的集合 partitionsWithError += topicPartition } } } val fetchData = builder.build() val fetchRequestOpt = if (fetchData.sessionPartitions.isEmpty && fetchData.toForget.isEmpty) { None } else { //構(gòu)造FETCH請求的Builder對象 val requestBuilder = FetchRequest.Builder .forReplica(fetchRequestVersion, replicaId, maxWait, minBytes, fetchData.toSend) .setMaxBytes(maxBytes) .toForget(fetchData.toForget) .metadata(fetchData.metadata) Some(requestBuilder) } //構(gòu)建返回結(jié)果,返回Builder對象以及出錯分區(qū)列表 ResultWithPartitions(fetchRequestOpt, partitionsWithError) }

    truncate() 方法:用于將指定分區(qū)的日志截斷到指定的偏移量

    override def truncate(tp: TopicPartition, offsetTruncationState: OffsetTruncationState): Unit = { //根據(jù)分區(qū)獲取本地副本 val replica = replicaMgr.localReplicaOrException(tp) val partition = replicaMgr.getPartition(tp).get //調(diào)用Partition.truecateTo方法進行日志截斷 // offsetTruncationState.offset:要截斷到的偏移量 partition.truncateTo(offsetTruncationState.offset, isFuture = false) if (offsetTruncationState.offset < replica.highWatermark.messageOffset) warn(s"Truncating $tp to offset ${offsetTruncationState.offset} below high watermark " + s"${replica.highWatermark.messageOffset}") if (offsetTruncationState.truncationCompleted) replicaMgr.replicaAlterLogDirsManager.markPartitionsForTruncation(brokerConfig.brokerId, tp, offsetTruncationState.offset)}

    ????這個方法內(nèi)部依次調(diào)用了:Partition.truncateTo -> LogManager.truncateTo -> Log.truncateTo -> LogSegment.truncateTo 進行日志截斷操作

    processPartitionData方法:用于處理指定分區(qū)從Leader副本所在節(jié)點返回的響應(yīng),將獲取的消息寫入本地存儲,并返回寫入消息的元數(shù)據(jù)

    這里有兩個個重要的操作:

    • 寫入消息,更新 Follower 副本的 LEO(對應(yīng)同步數(shù)據(jù)的第八步)

    • 更新 Follower 副本本地的 HW 值(對應(yīng)同步數(shù)據(jù)的第九步)

    override def processPartitionData(topicPartition: TopicPartition, // 拉取數(shù)據(jù)的分區(qū) fetchOffset: Long, // 拉取的消息集合的起始位移 partitionData: FetchData // 讀取到的分區(qū)消息數(shù)據(jù) ): Option[LogAppendInfo] = { // 返回值:寫入已讀取消息數(shù)據(jù)前的元數(shù)據(jù) //從副本管理器獲取副本對象Replica val replica = replicaMgr.localReplicaOrException(topicPartition) //從副本管理器獲取指定主題分區(qū)對象 val partition = replicaMgr.getPartition(topicPartition).get //將獲取的消息封裝成MemoryRecords val records = toMemoryRecords(partitionData.records) //判斷獲取的消息集合是否超限 maybeWarnIfOversizedRecords(records, topicPartition) //如果獲取消息的起始位移值不是本地日志LEO值則視為異常情況 if (fetchOffset != replica.logEndOffset) throw new IllegalStateException("Offset mismatch for partition %s: fetched offset = %d, log end offset = %d.".format( topicPartition, fetchOffset, replica.logEndOffset)) if (isTraceEnabled) trace("Follower has replica log end offset %d for partition %s. Received %d messages and leader hw %d" .format(replica.logEndOffset, topicPartition, records.sizeInBytes, partitionData.highWatermark)) //TODO 寫入Follower副本本地日志,更新自身的LEO val logAppendInfo = partition.appendRecordsToFollowerOrFutureReplica(records, isFuture = false) if (isTraceEnabled) trace("Follower has replica log end offset %d after appending %d bytes of messages for partition %s" .format(replica.logEndOffset, records.sizeInBytes, topicPartition)) //根據(jù)leader返回的HW,更新Follower本地的HW:取Follower本地LEO 和 Leader HW 的較小值 val followerHighWatermark = replica.logEndOffset.min(partitionData.highWatermark) //獲取從leader返回的LogStartOffset val leaderLogStartOffset = partitionData.logStartOffset //TODO 更新Follower副本的HW對象 replica.highWatermark = new LogOffsetMetadata(followerHighWatermark) //嘗試更新Follower副本的LogStartOffset replica.maybeIncrementLogStartOffset(leaderLogStartOffset) if (isTraceEnabled) trace(s"Follower set replica high watermark for partition $topicPartition to $followerHighWatermark") // 副本消息拉取限流 if (quota.isThrottled(topicPartition)) quota.record(records.sizeInBytes) replicaMgr.brokerTopicStats.updateReplicationBytesIn(records.sizeInBytes) //返回寫入消息的元數(shù)據(jù) logAppendInfo }AbstractFetchThread.doWork() 方法:將上面的三個方法串聯(lián)起來形成閉環(huán),達到 Follower 副本從 Leader 副本同步數(shù)據(jù)的目的。override def doWork() { //嘗試日志截斷 maybeTruncate() //嘗試拉取數(shù)據(jù) maybeFetch()}

    這個方法很簡單,只在內(nèi)部調(diào)用了兩個方法:

    maybeTruncate():嘗試進行日志截斷

    private def maybeTruncate(): Unit = { // 將所有處于截斷中狀態(tài)的分區(qū)依據(jù)有無Leader Epoch值進行分組 val (partitionsWithEpochs, partitionsWithoutEpochs) = fetchTruncatingPartitions() // 對于有Leader Epoch值的分區(qū),將日志截斷到Leader Epoch值對應(yīng)的位移值處 if (partitionsWithEpochs.nonEmpty) { truncateToEpochEndOffsets(partitionsWithEpochs) } // 對于沒有Leader Epoch值的分區(qū),將日志截斷到高水位值處 if (partitionsWithoutEpochs.nonEmpty) { truncateToHighWatermark(partitionsWithoutEpochs) }}

    這里先看對于沒有Leader Epoch的分區(qū),將日志截斷到高水位處:

    private[server] def truncateToHighWatermark(partitions: Set[TopicPartition]): Unit = inLock(partitionMapLock) { val fetchOffsets = mutable.HashMap.empty[TopicPartition, OffsetTruncationState] // 遍歷每個要執(zhí)行截斷操作的分區(qū)對象 for (tp // 獲取分區(qū)的分區(qū)讀取狀態(tài) val partitionState = partitionStates.stateValue(tp) if (partitionState != null) { // 取出高水位值。 val highWatermark = partitionState.fetchOffset //封裝截斷狀態(tài) val truncationState = OffsetTruncationState(highWatermark, truncationCompleted = true) info(s"Truncating partition $tp to local high watermark $highWatermark") // 執(zhí)行截斷到高水位值 if (doTruncate(tp, truncationState)) //保存分區(qū)和對應(yīng)的截取狀態(tài) fetchOffsets.put(tp, truncationState) } } // 更新這組分區(qū)的分區(qū)讀取狀態(tài) updateFetchOffsetAndMaybeMarkTruncationComplete(fetchOffsets)}其中 doTruncate(tp, truncationState) 方法內(nèi)部就調(diào)用了實現(xiàn)類:ReplicaFetcherThread.truncate() 方法maybeFetch():嘗試從Leader副本拉取數(shù)據(jù)private def maybeFetch(): Unit = { //獲取分區(qū)狀態(tài)集合和對應(yīng)的拉取請求的集合 val (fetchStates, fetchRequestOpt) = inLock(partitionMapLock) { //獲取要拉取消息的分區(qū)和分區(qū)對應(yīng)狀態(tài)的集合 val fetchStates = partitionStates.partitionStateMap.asScala // TODO 第一步:為集合中的分區(qū)構(gòu)造FetchRequest.builder對象,這里的返回結(jié)果有兩個對象: //fetchRequestOpt:要讀取的分區(qū)核心信息 + FetchRequest.Builder 對象。 // 而這里的核心信息,就是指要讀取哪個分區(qū),從哪個位置開始讀,最多讀多少字節(jié),等等。 //partitionsWithError:一組出錯的分區(qū) val ResultWithPartitions(fetchRequestOpt, partitionsWithError) = buildFetch(fetchStates) //TODO 第二步:處理出錯的分區(qū),處理方式主要是將這個分區(qū)加入到有序Map末尾,等待后續(xù)重試 handlePartitionsWithErrors(partitionsWithError, "maybeFetch") // 如果當前沒有可讀取的分區(qū),則等待fetchBackOffMs時間等候后續(xù)重試 if (fetchRequestOpt.isEmpty) { trace(s"There are no active partitions. Back off for $fetchBackOffMs ms before sending a fetch request") partitionMapCond.await(fetchBackOffMs, TimeUnit.MILLISECONDS) } (fetchStates, fetchRequestOpt) } //TODO 第三步:遍歷FETCH請求,發(fā)送FETCH請求給Leader副本,并處理Response fetchRequestOpt.foreach { fetchRequest => processFetchRequest(fetchStates, fetchRequest) }}這個方法可以劃分為關(guān)鍵的三個步驟:a:為集合中的分區(qū)構(gòu)造FetchRequest.builder對象val ResultWithPartitions(fetchRequestOpt, partitionsWithError) = buildFetch(fetchStates)這里調(diào)用了實現(xiàn)類:ReplicaFetcherThread.buildFetch() 方法,返回結(jié)果有兩個對象:fetchRequestOpt:要讀取的分區(qū)核心信息 + FetchRequest.Builder 對象。而這里的核心信息,就是指要讀取哪個分區(qū),從哪個位置開始讀,最多讀多少字節(jié),等等。partitionsWithError:一組出錯的分區(qū)

    b:處理出錯的分區(qū)。處理方式主要是將這個分區(qū)加入到有序Map末尾,等待后續(xù)重試

    handlePartitionsWithErrors(partitionsWithError, "maybeFetch")這個方法最后調(diào)用了PartitionStates.updateAndMoveToEnd() 方法,其作用就是把給定的分區(qū)從數(shù)據(jù)結(jié)構(gòu)的頭部移除,然后放到尾部,從而達到輪詢的目的//將給定的分區(qū)從map頭部移除,然后再加到尾部,以達到輪詢的目的//這里的LinkedHashMap對于插入元素是有順序的,加入插入順序是abcde,先讀取了a,// 為了保證公平性,會將a從集合中先移除,然后放到尾部,那么下次就從b開始讀public void updateAndMoveToEnd(TopicPartition topicPartition, S state) { map.remove(topicPartition); map.put(topicPartition, state); updateSize();}

    c:遍歷并發(fā)送FETCH請求給Leader副本,然后處理Response

    fetchRequestOpt.foreach { fetchRequest => processFetchRequest(fetchStates, fetchRequest)}private def processFetchRequest(fetchStates: Map[TopicPartition, PartitionFetchState], fetchRequest: FetchRequest.Builder): Unit = { //定義出錯分區(qū)的集合 val partitionsWithError = mutable.Set[TopicPartition]() //定義接收響應(yīng)數(shù)據(jù)的集合 var responseData: Seq[(TopicPartition, FetchData)] = Seq.empty try { trace(s"Sending fetch request $fetchRequest") //給Leader發(fā)送FETCH請求,獲取響應(yīng)數(shù)據(jù) responseData = fetchFromLeader(fetchRequest) } catch { case t: Throwable => if (isRunning) { warn(s"Error in response for fetch request $fetchRequest", t) inLock(partitionMapLock) { partitionsWithError ++= partitionStates.partitionSet.asScala partitionMapCond.await(fetchBackOffMs, TimeUnit.MILLISECONDS) } } } //更新請求發(fā)送速率指標 fetcherStats.requestRate.mark() //如果接收到了響應(yīng) if (responseData.nonEmpty) { inLock(partitionMapLock) { //遍歷響應(yīng)結(jié)果中的分區(qū)和分區(qū)對應(yīng)的數(shù)據(jù) responseData.foreach { case (topicPartition, partitionData) => Option(partitionStates.stateValue(topicPartition)).foreach { currentFetchState => //獲取分區(qū)對應(yīng)的拉取狀態(tài) val fetchState = fetchStates(topicPartition) // 處理Response的條件: // 1. 獲取的消息集合的起始偏移量和之前已保存的下一條待寫入偏移量相等 // 2. 當前分區(qū)處于可獲取狀態(tài) if (fetchState.fetchOffset == currentFetchState.fetchOffset && currentFetchState.isReadyForFetch) { //獲取請求中攜帶的Follower副本保存的 leader epoch 值 val requestEpoch = if (fetchState.currentLeaderEpoch >= 0) Some(fetchState.currentLeaderEpoch) else None partitionData.error match { // 如果沒有錯誤 case Errors.NONE => try { // 交由子類完成Response的處理 val logAppendInfoOpt = processPartitionData(topicPartition, currentFetchState.fetchOffset, partitionData) logAppendInfoOpt.foreach { logAppendInfo => val validBytes = logAppendInfo.validBytes val nextOffset = if (validBytes > 0) logAppendInfo.lastOffset + 1 else currentFetchState.fetchOffset fetcherLagStats.getAndMaybePut(topicPartition).lag = Math.max(0L, partitionData.highWatermark - nextOffset) if (validBytes > 0 && partitionStates.contains(topicPartition)) { val newFetchState = PartitionFetchState(nextOffset, fetchState.currentLeaderEpoch, state = Fetching) // 將該分區(qū)放置在有序Map讀取順序的末尾,保證公平性 partitionStates.updateAndMoveToEnd(topicPartition, newFetchState) fetcherStats.byteRate.mark(validBytes) } } } catch { case ime: CorruptRecordException => error(s"Found invalid messages during fetch for partition $topicPartition " + s"offset ${currentFetchState.fetchOffset}", ime) partitionsWithError += topicPartition case e: KafkaStorageException => error(s"Error while processing data for partition $topicPartition " + s"at offset ${currentFetchState.fetchOffset}", e) markPartitionFailed(topicPartition) case t: Throwable => error(s"Unexpected error occurred while processing data for partition $topicPartition " + s"at offset ${currentFetchState.fetchOffset}", t) markPartitionFailed(topicPartition) } // 如果讀取位移值越界,通常是因為Leader發(fā)生變更 case Errors.OFFSET_OUT_OF_RANGE => //調(diào)整越界,主要辦法是做截斷 if (handleOutOfRangeError(topicPartition, currentFetchState, requestEpoch)) //如果依然不能成功,將該分區(qū)添加到出錯分區(qū)集合 partitionsWithError += topicPartition //如果Follower本地保存的Leader Epoch值比Leader所在Broker上的Epoch值要新 case Errors.UNKNOWN_LEADER_EPOCH => debug(s"Remote broker has a smaller leader epoch for partition $topicPartition than " + s"this replica's current leader epoch of ${fetchState.currentLeaderEpoch}.") // 加入到出錯分區(qū)集合 partitionsWithError += topicPartition // 如果Follower本地保存的Leader Epoch值比Leader所在Broker上的Epoch值要舊 case Errors.FENCED_LEADER_EPOCH => //將該分區(qū)標記為失效,從分區(qū)拉取狀態(tài)集合中移除,并加入到失效分區(qū)集合 if (onPartitionFenced(topicPartition, requestEpoch)) partitionsWithError += topicPartition // 如果Leader發(fā)生變更 case Errors.NOT_LEADER_FOR_PARTITION => debug(s"Remote broker is not the leader for partition $topicPartition, which could indicate " + "that the partition is being moved") // 加入到出錯分區(qū)列表 partitionsWithError += topicPartition case _ => error(s"Error for partition $topicPartition at offset ${currentFetchState.fetchOffset}", partitionData.error.exception) // 加入到出錯分區(qū)集合 partitionsWithError += topicPartition } } } } } } // 處理出錯分區(qū)集合,主要就是將該分區(qū)放到map數(shù)據(jù)結(jié)構(gòu)的末尾 if (partitionsWithError.nonEmpty) { handlePartitionsWithErrors(partitionsWithError, "processFetchRequest") } }Leader 副本如何處理拉取數(shù)據(jù)的請求:前面提到過,發(fā)送給服務(wù)端的各種請求都是由KafkaApis類處理的,處理FETCH請求的方法是:handleFetchRequest()

    內(nèi)部調(diào)用了ReplicaManager.fetchMessages() 方法:

    def handleFetchRequest(request: RequestChannel.Request) { ... //TODO 這里是處理Follower Replica 拉取消息請求的具體方法 replicaManager.fetchMessages( fetchRequest.maxWait.toLong, fetchRequest.replicaId, fetchRequest.minBytes, fetchRequest.maxBytes, versionId <= 2, interesting, replicationQuota(fetchRequest), processResponseCallback, fetchRequest.isolationLevel) ...}

    fetchMessages() 方法:

    def fetchMessages(timeout: Long, replicaId: Int, fetchMinBytes: Int, fetchMaxBytes: Int, hardMaxBytesLimit: Boolean, fetchInfos: Seq[(TopicPartition, PartitionData)], quota: ReplicaQuota = UnboundedQuota, responseCallback: Seq[(TopicPartition, FetchPartitionData)] => Unit, isolationLevel: IsolationLevel) { val isFromFollower = Request.isValidBrokerId(replicaId) val fetchOnlyFromLeader = replicaId != Request.DebuggingConsumerId && replicaId != Request.FutureLocalReplicaId val fetchIsolation = if (isFromFollower || replicaId == Request.FutureLocalReplicaId) FetchLogEnd else if (isolationLevel == IsolationLevel.READ_COMMITTED) FetchTxnCommitted else FetchHighWatermark //從本地磁盤讀取數(shù)據(jù) def readFromLog(): Seq[(TopicPartition, LogReadResult)] = { val result = readFromLocalLog( replicaId = replicaId, fetchOnlyFromLeader = fetchOnlyFromLeader, fetchIsolation = fetchIsolation, fetchMaxBytes = fetchMaxBytes, hardMaxBytesLimit = hardMaxBytesLimit, readPartitionInfo = fetchInfos, quota = quota) if (isFromFollower) updateFollowerLogReadResults(replicaId, result) else result } //獲取讀取結(jié)果 val logReadResults = readFromLog() var bytesReadable: Long = 0 var errorReadingData = false val logReadResultMap = new mutable.HashMap[TopicPartition, LogReadResult] logReadResults.foreach { case (topicPartition, logReadResult) => if (logReadResult.error != Errors.NONE) errorReadingData = true bytesReadable = bytesReadable + logReadResult.info.records.sizeInBytes logReadResultMap.put(topicPartition, logReadResult) } if (timeout <= 0 || fetchInfos.isEmpty || bytesReadable >= fetchMinBytes || errorReadingData) { val fetchPartitionData = logReadResults.map { case (tp, result) => tp -> FetchPartitionData(result.error, result.highWatermark, result.leaderLogStartOffset, result.info.records, result.lastStableOffset, result.info.abortedTransactions) } responseCallback(fetchPartitionData) } else { val fetchPartitionStatus = new mutable.ArrayBuffer[(TopicPartition, FetchPartitionStatus)] fetchInfos.foreach { case (topicPartition, partitionData) => logReadResultMap.get(topicPartition).foreach(logReadResult => { val logOffsetMetadata = logReadResult.info.fetchOffsetMetadata fetchPartitionStatus += (topicPartition -> FetchPartitionStatus(logOffsetMetadata, partitionData)) }) } val fetchMetadata = FetchMetadata(fetchMinBytes, fetchMaxBytes, hardMaxBytesLimit, fetchOnlyFromLeader, fetchIsolation, isFromFollower, replicaId, fetchPartitionStatus) val delayedFetch = new DelayedFetch(timeout, fetchMetadata, this, quota, responseCallback) val delayedFetchKeys = fetchPartitionStatus.map { case (tp, _) => new TopicPartitionOperationKey(tp) } delayedFetchPurgatory.tryCompleteElseWatch(delayedFetch, delayedFetchKeys) } }該方法內(nèi)部定義了一個readFromLog()方法,其作用有兩個:????a. 調(diào)用readFromLocalLog() 讀取 Leader 副本的本地日志????b. 調(diào)用 updateFollowerLogReadResults() 更新Leader副本的HW、Leader副本保存的對應(yīng)Follower副本的LEO,以及嘗試調(diào)整ISR列表等readFromLocalLog() 方法和內(nèi)部定義的 read() 方法如下,用于從Leader副本的日志文件讀取數(shù)據(jù):def readFromLocalLog(replicaId: Int, fetchOnlyFromLeader: Boolean, fetchIsolation: FetchIsolation, fetchMaxBytes: Int, hardMaxBytesLimit: Boolean, readPartitionInfo: Seq[(TopicPartition, PartitionData)], quota: ReplicaQuota): Seq[(TopicPartition, LogReadResult)] = { def read(tp: TopicPartition, fetchInfo: PartitionData, limitBytes: Int, minOneMessage: Boolean): LogReadResult = { //讀取的起始偏移量 val offset = fetchInfo.fetchOffset //讀取的大小 val partitionFetchSize = fetchInfo.maxBytes //follower Replica 的LogStartOffset val followerLogStartOffset = fetchInfo.logStartOffset brokerTopicStats.topicStats(tp.topic).totalFetchRequestRate.mark() brokerTopicStats.allTopicsStats.totalFetchRequestRate.mark() val adjustedMaxBytes = math.min(fetchInfo.maxBytes, limitBytes) try { trace(s"Fetching log segment for partition $tp, offset $offset, partition fetch size $partitionFetchSize, " + s"remaining response limit $limitBytes" + (if (minOneMessage) s", ignoring response/partition size limits" else "")) val partition = getPartitionOrException(tp, expectLeader = fetchOnlyFromLeader) val fetchTimeMs = time.milliseconds //讀取數(shù)據(jù),獲取讀取結(jié)果,里面包含了讀取到的消息,LEO,HW,LogStartOffset等信息 val readInfo = partition.readRecords( //讀取的起始偏移量 fetchOffset = fetchInfo.fetchOffset, //Follower副本保存的Leader epoch currentLeaderEpoch = fetchInfo.currentLeaderEpoch, maxBytes = adjustedMaxBytes, fetchIsolation = fetchIsolation, fetchOnlyFromLeader = fetchOnlyFromLeader, minOneMessage = minOneMessage) //獲取讀到的數(shù)據(jù) val fetchDataInfo = if (shouldLeaderThrottle(quota, tp, replicaId)) { //如果分區(qū)被限流了,那么返回一個空集合 FetchDataInfo(readInfo.fetchedData.fetchOffsetMetadata, MemoryRecords.EMPTY) } else if (!hardMaxBytesLimit && readInfo.fetchedData.firstEntryIncomplete) { //如果返回的消息集合不完整,也返回一個空集合 FetchDataInfo(readInfo.fetchedData.fetchOffsetMetadata, MemoryRecords.EMPTY) } else { //正常返回 readInfo.fetchedData } //根據(jù)獲取到的數(shù)據(jù)封裝返回結(jié)果 LogReadResult(info = fetchDataInfo, highWatermark = readInfo.highWatermark,//Leader的HW leaderLogStartOffset = readInfo.logStartOffset,//Leader的LogStartOffset leaderLogEndOffset = readInfo.logEndOffset,//Leader的LEO followerLogStartOffset = followerLogStartOffset,//Follower的LogStartOffset fetchTimeMs = fetchTimeMs, readSize = adjustedMaxBytes, lastStableOffset = Some(readInfo.lastStableOffset), exception = None//異常信息 ) } catch { case e@ (_: UnknownTopicOrPartitionException | _: NotLeaderForPartitionException | _: UnknownLeaderEpochException | _: FencedLeaderEpochException | _: ReplicaNotAvailableException | _: KafkaStorageException | _: OffsetOutOfRangeException) => LogReadResult(info = FetchDataInfo(LogOffsetMetadata.UnknownOffsetMetadata, MemoryRecords.EMPTY), highWatermark = -1L, leaderLogStartOffset = -1L, leaderLogEndOffset = -1L, followerLogStartOffset = -1L, fetchTimeMs = -1L, readSize = 0, lastStableOffset = None, exception = Some(e)) case e: Throwable => brokerTopicStats.topicStats(tp.topic).failedFetchRequestRate.mark() brokerTopicStats.allTopicsStats.failedFetchRequestRate.mark() val fetchSource = Request.describeReplicaId(replicaId) error(s"Error processing fetch with max size $adjustedMaxBytes from $fetchSource " + s"on partition $tp: $fetchInfo", e) LogReadResult(info = FetchDataInfo(LogOffsetMetadata.UnknownOffsetMetadata, MemoryRecords.EMPTY), highWatermark = -1L, leaderLogStartOffset = -1L, leaderLogEndOffset = -1L, followerLogStartOffset = -1L, fetchTimeMs = -1L, readSize = 0, lastStableOffset = None, exception = Some(e)) } } //讀取的最大字節(jié) var limitBytes = fetchMaxBytes //封裝結(jié)果對象 val result = new mutable.ArrayBuffer[(TopicPartition, LogReadResult)] //是否至少返回一條消息 var minOneMessage = !hardMaxBytesLimit //遍歷分區(qū)進行讀取 readPartitionInfo.foreach { case (tp, fetchInfo) => //獲取讀取的結(jié)果 val readResult = read(tp, fetchInfo, limitBytes, minOneMessage) //獲取每個分區(qū)讀取的字節(jié)數(shù) val recordBatchSize = readResult.info.records.sizeInBytes if (recordBatchSize > 0) minOneMessage = false //更新還可以讀取的字節(jié)數(shù) limitBytes = math.max(0, limitBytes - recordBatchSize) //將分區(qū)的讀取結(jié)果保存到結(jié)果集合中 result += (tp -> readResult) } //返回結(jié)果集 result }其中,read() 方法中通過調(diào)用Partition. readRecords() 方法,就獲取了 Leader 副本的高水位值://獲取Leader Replica的高水位val initialHighWatermark = localReplica.highWatermark.messageOffset從這里可以看出,每個分區(qū)的讀取結(jié)果中,都包含了 Leader 副本的 LEO、HW、LogStartOffset,以及 Follower 副本的LogStartOffset等信息。updateFollowerLogReadResults() 方法如下:private def updateFollowerLogReadResults(replicaId: Int, readResults: Seq[(TopicPartition, LogReadResult)]): Seq[(TopicPartition, LogReadResult)] = { debug(s"Recording follower broker $replicaId log end offsets: $readResults") readResults.map { case (topicPartition, readResult) => var updatedReadResult = readResult nonOfflinePartition(topicPartition) match { //如果找到了對應(yīng)的分區(qū) case Some(partition) => //根據(jù)副本id獲取Partition對象中保存的副本對象 //Partition.allReplicasMap結(jié)構(gòu)中保存了當前分區(qū)的所有副本對象。其中,key是brokerid,value是對應(yīng)的Replica對象 partition.getReplica(replicaId) match { //如果獲取到了Replica對象 case Some(replica) => //TODO 更新leader保存的各個follower副本的LEO partition.updateReplicaLogReadResult(replica, readResult) case None => warn(s"Leader $localBrokerId failed to record follower $replicaId's position " + s"${readResult.info.fetchOffsetMetadata.messageOffset} since the replica is not recognized to be " + s"one of the assigned replicas ${partition.assignedReplicas.map(_.brokerId).mkString(",")} " + s"for partition $topicPartition. Empty records will be returned for this partition.") updatedReadResult = readResult.withEmptyFetchInfo } //如果對應(yīng)的分區(qū)沒有被創(chuàng)建 case None => warn(s"While recording the replica LEO, the partition $topicPartition hasn't been created.") } topicPartition -> updatedReadResult } }

    Partition.updateReplicaLogReadResult() 方法:

    def updateReplicaLogReadResult(replica: Replica, logReadResult: LogReadResult): Boolean = { val replicaId = replica.brokerId val oldLeaderLW = if (replicaManager.delayedDeleteRecordsPurgatory.delayed > 0) lowWatermarkIfLeader else -1L //TODO 最終更新Leader副本保存的Follower副本的LEO的值 replica.updateLogReadResult(logReadResult) val newLeaderLW = if (replicaManager.delayedDeleteRecordsPurgatory.delayed > 0) lowWatermarkIfLeader else -1L val leaderLWIncremented = newLeaderLW > oldLeaderLW //TODO 嘗試更新ISR列表,在這個方法中會更新Leader副本對象的HW對象和分區(qū)對應(yīng)的Log對象的HW值 val leaderHWIncremented = maybeExpandIsr(replicaId, logReadResult) val result = leaderLWIncremented || leaderHWIncremented if (result) tryCompleteDelayedRequests() debug(s"Recorded replica $replicaId log end offset (LEO) position ${logReadResult.info.fetchOffsetMetadata.messageOffset}.") result }Replica.updateLogReadResult() 方法:用于更新Partition保存的Follower副本的LEO(對應(yīng)同步數(shù)據(jù)的第四步)def updateLogReadResult(logReadResult: LogReadResult) { if (logReadResult.info.fetchOffsetMetadata.messageOffset >= logReadResult.leaderLogEndOffset) _lastCaughtUpTimeMs = math.max(_lastCaughtUpTimeMs, logReadResult.fetchTimeMs) else if (logReadResult.info.fetchOffsetMetadata.messageOffset >= lastFetchLeaderLogEndOffset) _lastCaughtUpTimeMs = math.max(_lastCaughtUpTimeMs, lastFetchTimeMs) //更新Follower副本的日志起始偏移量,即 _logStartOffset 變量 logStartOffset = logReadResult.followerLogStartOffset //更新Follower副本的LEO元數(shù)據(jù)對象,即 _logEndOffsetMetadata 變量 logEndOffsetMetadata = logReadResult.info.fetchOffsetMetadata //最后一次拉取時Leader副本的LEO lastFetchLeaderLogEndOffset = logReadResult.leaderLogEndOffset lastFetchTimeMs = logReadResult.fetchTimeMs}maybeExpandIsr() 方法:嘗試更新ISR列表(對應(yīng)同步數(shù)據(jù)的第五步)def maybeExpandIsr(replicaId: Int, logReadResult: LogReadResult): Boolean = { inWriteLock(leaderIsrUpdateLock) { // 檢查給定的副本對象是否需要添加到ISR列表 leaderReplicaIfLocal match { case Some(leaderReplica) => //獲取給定節(jié)點的Replica對象 val replica = getReplica(replicaId).get //獲取leader副本的HW值 val leaderHW = leaderReplica.highWatermark //獲取Follower副本的LEO val fetchOffset = logReadResult.info.fetchOffsetMetadata.messageOffset //判斷是否需要更新ISR列表的條件: //1.該節(jié)點不在ISR列表,且replica.logEndOffsetMetadata.offsetDiff(leaderHW) //2.給定Follower副本的LEO大于等于leader副本的HW //3.給定的Follower副本屬于該分區(qū) //4.leader epoch對應(yīng)的起始偏移量存在且小于Follower副本的LEO //滿足這4個條件說明這個Follower副本已經(jīng)和leader副本保持同步了,把這個Follower副本加入到ISR列表中 if (!inSyncReplicas.contains(replica) && assignedReplicas.map(_.brokerId).contains(replicaId) && replica.logEndOffsetMetadata.offsetDiff(leaderHW) >= 0 && leaderEpochStartOffsetOpt.exists(fetchOffset >= _)) { //將該副本加入集合 val newInSyncReplicas = inSyncReplicas + replica info(s"Expanding ISR from ${inSyncReplicas.map(_.brokerId).mkString(",")} " + s"to ${newInSyncReplicas.map(_.brokerId).mkString(",")}") // update ISR in ZK and cache //更新ISR列表 updateIsr(newInSyncReplicas) replicaManager.isrExpandRate.mark() } // check if the HW of the partition can now be incremented // since the replica may already be in the ISR and its LEO has just incremented //TODO 嘗試更新leader副本的HW對象及分區(qū)對應(yīng)的Log對象的HW值 maybeIncrementLeaderHW(leaderReplica, logReadResult.fetchTimeMs) case None => false // nothing to do if no longer leader } } }

    maybeIncrementLeaderHW() 方法:嘗試更新 leader 副本的 HW 對象及分區(qū)對應(yīng)的Log 對象的 HW 值(對應(yīng)同步數(shù)據(jù)的第六步)

    private def maybeIncrementLeaderHW(leaderReplica: Replica, curTime: Long = time.milliseconds): Boolean = { val allLogEndOffsets = assignedReplicas.filter { replica => curTime - replica.lastCaughtUpTimeMs <= replicaLagTimeMaxMs || inSyncReplicas.contains(replica) }.map(_.logEndOffsetMetadata) //取ISR列表中副本的最小的LEO作為新的HW val newHighWatermark = allLogEndOffsets.min(new LogOffsetMetadata.OffsetOrdering) //獲取舊的HW val oldHighWatermark = leaderReplica.highWatermark //如果新的HW值大于舊的HW值,就更新 if (oldHighWatermark.messageOffset < newHighWatermark.messageOffset || (oldHighWatermark.messageOffset == newHighWatermark.messageOffset && oldHighWatermark.onOlderSegment(newHighWatermark))) { //更新Replica的hightWatermark對象,以及對應(yīng)Log對象的高水位值 leaderReplica.highWatermark = newHighWatermark debug(s"High watermark updated to $newHighWatermark") true } else { def logEndOffsetString(r: Replica) = s"replica ${r.brokerId}: ${r.logEndOffsetMetadata}" debug(s"Skipping update high watermark since new hw $newHighWatermark is not larger than old hw $oldHighWatermark. " + s"All current LEOs are ${assignedReplicas.map(logEndOffsetString)}") false } }在前面分析Log日志對象的主要操作時,其中有一項是進行高水位操作的管理。在Log類中,操作高水位值的方法只有一個:onHighWatermarkIncrementeddef onHighWatermarkIncremented(highWatermark: Long): Unit = { lock synchronized { //更新高水位值??????replicaHighWatermark?=?Some(highWatermark)??????producerStateManager.onHighWatermarkUpdated(highWatermark) updateFirstUnstableOffset() } }這個方法就是將 Log 中的 replicaHightWatermark 變量修改為給定的值。那么什么時候會修改呢?查看調(diào)用該方法的地方:Replica.highWatermark_def highWatermark_=(newHighWatermark: LogOffsetMetadata) { //如果是本地副本 if (isLocal) { if (newHighWatermark.messageOffset < 0) throw new IllegalArgumentException("High watermark offset should be non-negative") //高水位的元數(shù)據(jù)對象 highWatermarkMetadata = newHighWatermark //更新Log對象保存的高水位值 log.foreach(_.onHighWatermarkIncremented(newHighWatermark.messageOffset)) trace(s"Setting high watermark for replica $brokerId partition $topicPartition to [$newHighWatermark]") } else { throw new KafkaException(s"Should not set high watermark on partition $topicPartition's non-local replica $brokerId") } }在嘗試更新Leader副本的高水位時會進行highWatermark_的調(diào)用://更新Replica的hightWatermark對象,以及對應(yīng)Log對象的高水位值leaderReplica.highWatermark = newHighWatermark最后會將多個分區(qū)的讀取結(jié)果(包含Leader副本 HW)放到集合中,然后在合適的時機返回給Follower副本所在的節(jié)點(對應(yīng)同步數(shù)據(jù)第七步)def?fetchMessages(){ ... logReadResults.foreach { case (topicPartition, logReadResult) => //如果讀取發(fā)生錯誤 if (logReadResult.error != Errors.NONE) errorReadingData = true bytesReadable = bytesReadable + logReadResult.info.records.sizeInBytes //將讀取結(jié)果放入集合 logReadResultMap.put(topicPartition, logReadResult) }????...}

    ????上面所說的合適的時機,分為 立即返回延時返回,當滿足下面四個條件之一時,便立即返回,否則會進行延時處理:

    • 拉取等待的時間到了

    • 拉取請求中沒有拉取分區(qū)的信息

    • 已經(jīng)拉取到了足夠多的數(shù)據(jù)

    • 拉取過程中發(fā)生錯誤

    總結(jié):

    Leader副本寫入數(shù)據(jù),Follower副本進行同步的過程分為9個步驟:

  • leader 副本將數(shù)據(jù)寫入本地磁盤
  • leader?副本更新 LEO
  • follower 副本發(fā)送同步數(shù)據(jù)請求,攜帶自身的 LEO
  • leader 副本更新本地保存的其它副本的 LEO
  • leader 副本嘗試更新 ISR 列表
  • leader?副本更新 HW
  • leader 副本給 follower 副本返回數(shù)據(jù),攜帶 leader 副本的 HW 值
  • follower 副本接收響應(yīng)并寫入數(shù)據(jù),更新自身 LEO
  • follower 副本更新本地的 HW 值
  • 關(guān)于 HW 和 LEO 的保存:

    • 對于HW,Leader 副本和 Follower 副本只保存自身的

    • 對于LEO,Follower 副本只保存自身的,但是 Leader 副本除了保存自身的外,還會保存所有 Follower 副本的 LEO 值

    • 無論是Leader副本所在節(jié)點,還是Follower副本所在節(jié)點,分區(qū)對應(yīng)的Partition 對象都會保存所有的副本對象,但是只有本地副本對象有對應(yīng)的日志文件

    總結(jié)

    以上是生活随笔為你收集整理的取本地数据_深入理解Kafka服务端之Follower副本如何同步Leader副本的数据的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

    亚州av网站大全 | 99在线精品免费视频九九视 | 国产精品99久久久久久小说 | 国产a国产a国产a | 少妇自拍av | 欧美日韩国产精品一区二区亚洲 | 国产精品国产亚洲精品看不卡15 | 天天夜夜亚洲 | 婷婷色在线观看 | 欧美精品三级在线观看 | 超碰97在线看 | 久av在线 | 国产精品免费视频一区二区 | 超碰在线9| 狠狠色丁香九九婷婷综合五月 | 国产黄色成人 | 免费看搞黄视频网站 | 一本一本久久a久久精品综合 | 国产成人免费在线观看 | 中文字幕亚洲欧美 | 日韩一区二区在线免费观看 | 国内成人精品视频 | 精品国产伦一区二区三区免费 | 国产 视频 高清 免费 | 女人18片毛片90分钟 | 五月天久久综合 | 久草久视频| 人人干人人搞 | 精品免费国产一区二区三区四区 | 久久免费视频这里只有精品 | 青青草国产免费 | 亚洲jizzjizz日本少妇 | 成人啪啪18免费游戏链接 | 香蕉手机在线 | 免费看的毛片 | 国产高清绿奴videos | 亚洲三级影院 | 国产一区二区三区视频在线 | 国产在线91精品 | 99久久日韩精品免费热麻豆美女 | 91九色porny蝌蚪视频 | 色婷婷av一区二 | 久久视频免费看 | av黄色影院 | 日批在线看 | 日韩免费成人 | 成人av片免费观看app下载 | 精品国产一二三四区 | 在线观看成人小视频 | 综合久久精品 | 天天操夜夜爱 | 综合视频在线 | 精品国产欧美一区二区三区不卡 | 99在线免费视频观看 | 国产老太婆免费交性大片 | 国产精品久久久久久久免费大片 | 五月婷婷播播 | 午夜 免费 | 欧美激情视频在线免费观看 | 色丁香综合 | 久久久久国产成人精品亚洲午夜 | 中文在线a在线 | 精品久久久久一区二区国产 | 在线观看av中文字幕 | 黄色在线观看免费网站 | 久久久久久久国产精品视频 | 九草在线观看 | 日本在线观看中文字幕无线观看 | 在线网址你懂得 | 一级免费看 | 91禁看片| 国产一区二区免费在线观看 | www在线观看国产 | 国产精品视频永久免费播放 | 精品一区二区免费 | 亚洲激情p | 五月开心激情网 | 夜夜夜夜猛噜噜噜噜噜初音未来 | 欧洲精品久久久久毛片完整版 | 99热播精品 | 欧美坐爱视频 | 久久免费国产视频 | 国产1区2区3区精品美女 | 国产高清视频免费观看 | 日韩高清免费在线观看 | 99草视频在线观看 | 精品一区二区av | av成人免费在线 | 婷婷综合av | 国产精品99精品 | 日韩精品免费一区二区三区 | 日韩久久一区 | 久草在线免费资源 | 天天操天天操天天干 | 色婷婷综合久久久中文字幕 | 91av手机在线| 在线视频免费观看 | 久久精品二区 | 婷婷激情小说网 | 国产黄网站在线观看 | 精品久久一 | 精品国产99国产精品 | 精品日韩视频 | 久久久美女 | 美女免费黄视频网站 | 中文免费观看 | 四虎在线影视 | 久久久国产精华液 | 99视频在线观看免费 | 国内精品久久久久影院优 | 99亚洲精品| 久久久久北条麻妃免费看 | 日韩女同一区二区三区在线观看 | 黄色免费网站 | 日韩av看片 | 久久精品999 | 人人添人人澡 | 国产视频色 | 成人亚洲免费 | 久久久久国产精品免费 | 色av男人的天堂免费在线 | 天海翼一区二区三区免费 | 亚洲精品在线免费看 | 欧美另类sm图片 | 色播五月激情五月 | 99精品久久久久 | 午夜精品视频免费在线观看 | 国产成人一区在线 | 天天躁日日躁狠狠躁av麻豆 | 97国产大学生情侣白嫩酒店 | 色婷婷免费 | 亚洲九九九 | 欧美成人一区二区 | 国产91全国探花系列在线播放 | 国产成a人亚洲精v品在线观看 | 成人小视频免费在线观看 | 日韩在线第一 | 伊人五月天av | 97超碰超碰久久福利超碰 | 久久国产热视频 | 精品麻豆入口免费 | 又污又黄的网站 | 久草av在线播放 | 99免费在线观看视频 | 91精品国产麻豆 | 精品国产成人在线影院 | 色综合天天做天天爱 | 日日夜夜综合 | 亚洲 欧美 成人 | 国产a视频免费观看 | 欧美九九九 | 亚洲成年人免费网站 | 五月婷网站 | 99视频在线观看视频 | 99视频在线精品国自产拍免费观看 | 成人一级片视频 | av黄色免费网站 | 91手机视频在线 | 国产特级毛片aaaaaa | 欧洲色吧 | 中文字幕av免费在线观看 | 成人a免费看 | 精品国产一区二区三区久久久蜜臀 | 日韩电影在线看 | 91视频 - x99av | 国产精品福利在线播放 | 欧美日韩亚洲一 | 又色又爽又黄高潮的免费视频 | 美女很黄免费网站 | 毛片精品免费在线观看 | 午夜精品福利在线 | 性色va| 日韩精品大片 | 精品av网站| 91麻豆精品国产自产 | 亚洲精品午夜一区人人爽 | 久久精品波多野结衣 | 天堂在线免费视频 | 欧美aaa一级 | 国产精品 国内视频 | 狠狠狠狠狠狠天天爱 | 欧美一区二区精美视频 | 亚洲国产一二三 | 精品国产99 | 欧美综合在线观看 | 中文字幕人成乱码在线观看 | 日韩试看 | 在线视频99 | 91免费观看视频网站 | 99精品久久只有精品 | 五月婷婷.com | 99久久99视频只有精品 | 日韩mv欧美mv国产精品 | 久久久久久久久久久福利 | 99色视频在线 | www.xxxx欧美 | 亚洲美女免费精品视频在线观看 | 日韩国产精品久久久久久亚洲 | 日本h在线播放 | 91精品一区二区在线观看 | 在线视频 成人 | 久热这里有精品 | 亚洲精品国偷自产在线99热 | 亚洲综合导航 | 亚洲欧美国产精品18p | 婷婷色网视频在线播放 | 最新极品jizzhd欧美 | 亚洲精品视频在线观看网站 | 欧美 日韩 国产 中文字幕 | 日本中文字幕网址 | 欧美先锋影音 | 九九视频这里只有精品 | 人人玩人人爽 | 国产成人一区二区啪在线观看 | 欧美性生活久久 | 黄色91免费观看 | 99精品久久久久久久久久综合 | 美女国产精品 | www178ccom视频在线 | 国产在线播放一区二区 | 日韩深夜在线观看 | 狠狠狠色丁香综合久久天下网 | 国产精品一区久久久久 | 99精品国产一区二区三区不卡 | 国产精品麻豆视频 | 91成人区 | 国产精品a级 | 91视频久久久久久 | 玖玖视频国产 | 免费日韩| 日日夜夜综合网 | 日韩av在线高清 | 狠狠干网站 | 国产精品久久久久久久久久妇女 | 久久国产精品偷 | 国产精品久久久久亚洲影视 | 久久激情小视频 | 国产精品久久久久影院 | 国产五月婷 | 日本黄色免费网站 | 国产黄色精品视频 | 在线免费视频一区 | 99热超碰 | 91精品天码美女少妇 | 欧美日韩伦理一区 | 日韩三级久久 | 男女视频久久久 | 国产精品久久久久久久午夜片 | 成人a免费视频 | 色吊丝在线永久观看最新版本 | 日韩有码中文字幕在线 | 国产精品一区在线观看你懂的 | 色多多污污 | 国产精品免费在线视频 | 欧美成人91 | 亚洲精品av在线 | 91成人黄色 | 五月婷婷开心中文字幕 | 日日夜日日干 | 亚洲人成人99网站 | 最近中文字幕 | 香蕉视频在线视频 | 日韩特黄一级欧美毛片特黄 | 久久a免费视频 | 亚洲精品国产精品国自产观看浪潮 | 99色在线播放 | 欧美a√大片 | 国产做aⅴ在线视频播放 | 免费看色的网站 | 国产精品色婷婷视频 | 国产精品99久久久久久久久久久久 | 日本精品久久久久 | 久草在在线视频 | 国产乱对白刺激视频不卡 | 日韩免费成人 | 久久综合欧美 | 日韩视频免费 | 色视频在线 | 91麻豆精品国产91久久久久久 | 99久久久久免费精品国产 | 日韩精品一区二区三区免费视频观看 | 探花视频在线观看 | 中文字幕美女免费在线 | 日韩福利在线观看 | 成人v| 超碰人在线 | 国产精品21区 | www在线免费观看 | 日韩精品高清视频 | 不卡av电影在线 | 日本三级香港三级人妇99 | 99热在线免费观看 | 9999在线 | www.天天草 | 91成人精品一区在线播放69 | 久久亚洲在线 | 天天操天天操天天爽 | 国产亚洲精品女人久久久久久 | 国产色在线观看 | 在线播放国产一区二区三区 | www在线观看视频 | www欧美色| 成人在线播放免费观看 | 国产人成精品一区二区三 | 日韩视频在线观看免费 | 97超碰超碰久久福利超碰 | 久久久久99精品成人片三人毛片 | www.天天操.com | 人人草在线视频 | 黄色毛片网站在线观看 | 亚洲精品国产精品久久99 | 91精品国产欧美一区二区成人 | 美女视频黄的免费的 | 欧美日韩一区二区三区不卡 | 97国产情侣爱久久免费观看 | 九九99| 欧美视频在线二区 | 又黄又爽又色无遮挡免费 | 毛片美女网站 | 亚洲国产精品久久久久婷婷884 | 午夜精品久久久久久久爽 | 国产亚洲精品久久久久久久久久久久 | 97超碰国产在线 | 色婷婷啪啪免费在线电影观看 | 久久免费视频4 | 夜夜夜 | 玖玖999 | 日韩精品久久久久久久电影99爱 | 在线中文日韩 | 最新中文字幕 | 色小说在线 | 国产日韩精品在线观看 | 精品一区二区三区电影 | 国产九九九视频 | 久久99精品国产麻豆宅宅 | 亚洲精品xx| 中文字幕乱在线伦视频中文字幕乱码在线 | 欧美色图狠狠干 | 久久综合色综合88 | 日本精品视频一区 | 91污视频在线观看 | 国产精品福利在线播放 | 成年人黄色免费网站 | 欧美大荫蒂xxx | 96亚洲精品久久久蜜桃 | 色婷婷导航 | 久久久久久电影 | 天天曰 | 亚洲va在线va天堂 | 在线你懂 | 美女黄久久| 欧美在线观看禁18 | 丁香久久激情 | 国产一区二区在线免费视频 | 视频国产在线观看18 | 日日夜夜狠狠操 | 久草免费在线观看 | 综合久久影院 | 国产三级国产精品国产专区50 | 在线电影中文字幕 | 国产主播大尺度精品福利免费 | 欧美一区二区三区在线视频观看 | 国产精品视频区 | 亚洲午夜激情网 | www.久草.com | 最近中文字幕大全中文字幕免费 | 四虎在线永久免费观看 | 精品视频免费久久久看 | 国产成人精品999 | 国产免费观看久久黄 | 国产精品热视频 | 天天躁日日躁狠狠躁 | 成人一级片在线观看 | 国产精品久久久久影院 | 国产一区 在线播放 | 色吊丝在线永久观看最新版本 | 亚洲久在线 | 免费欧美高清视频 | www国产亚洲精品久久麻豆 | 亚洲精品国产精品国自产观看浪潮 | 中文字幕丝袜美腿 | 亚洲欧洲中文日韩久久av乱码 | 99精品一区 | 日韩欧美国产精品 | bbb搡bbb爽爽爽| 天天爱综合 | 国产精品成人一区二区三区吃奶 | 美女免费视频一区二区 | 国产一级大片在线观看 | 美女免费视频黄 | 天天·日日日干 | 久久国产二区 | 久久成人国产精品 | 久久综合久久综合久久 | 99热精品久久 | 欧美日韩高清一区二区 国产亚洲免费看 | 久草观看| 97电院网手机版 | 国产精品毛片久久久 | 成人免费视频播放 | 久久夜色精品国产欧美乱极品 | a久久免费视频 | 亚洲精品欧美成人 | 国产韩国日本高清视频 | 不卡的av电影在线观看 | 五月导航| 草樱av| 视频福利在线观看 | 天天干婷婷 | 久av电影 | 黄网站色欧美视频 | 我要色综合天天 | 成人免费视频视频在线观看 免费 | 9在线观看免费高清完整版在线观看明 | 探花视频在线版播放免费观看 | 欧美日韩一区二区视频在线观看 | 欧美精品二区 | 久久精品中文字幕 | 精品婷婷| 精品久久中文 | 日韩在线免费观看视频 | 久久草在线精品 | 欧洲一区二区在线观看 | 国产日韩中文字幕在线 | 一区二区影视 | 五月婷婷综合在线 | 亚洲免费av网站 | 91观看视频| 顶级欧美色妇4khd | 97视频在线播放 | 日韩视频免费在线观看 | 久久精品91久久久久久再现 | 蜜桃av人人夜夜澡人人爽 | 欧美综合久久久 | 婷婷久久网站 | 99久久超碰中文字幕伊人 | 日韩电影中文,亚洲精品乱码 | 久久理论片 | 亚洲丝袜一区 | 久久精品中文字幕免费mv | 国产69精品久久久久9999apgf | 国产一区二区在线视频观看 | 蜜臀av麻豆 | 久草视频免费播放 | 91在线播放视频 | 午夜精品久久久 | 国产精品18p | 国产a级免费 | 成人av免费在线 | 夜夜婷婷| 亚洲乱码精品久久久久 | 丁香av在线 | 国产成人精品av久久 | 婷婷激情5月天 | 国产日韩在线看 | 久久免费在线观看 | 欧美日韩国产高清视频 | 超碰官网 | 精品一区二区6 | 在线看国产一区 | 午夜av一区二区三区 | 久久久久久毛片精品免费不卡 | 人人干天天射 | 黄视频网站大全 | 亚洲精品动漫久久久久 | 国产精品观看视频 | 国产精品久久在线 | 成年人天堂com | 国产午夜激情视频 | 欧美精品乱码99久久影院 | 色婷婷久久久 | 色综合久久网 | www欧美色 | 在线视频中文字幕一区 | 天天综合网久久 | 国产精品免费观看在线 | 亚洲国产资源 | 日韩乱码在线 | 久久国产网站 | 日韩v欧美v日本v亚洲v国产v | 国产精品乱码久久久久久1区2区 | 顶级欧美色妇4khd | 天天操月月操 | 伊人亚洲综合 | 免费视频久久久久久久 | 色欧美成人精品a∨在线观看 | 久久午夜国产精品 | 国产精品久久久久久久免费大片 | 欧美精品一级视频 | 免费日韩电影 | 香蕉视频最新网址 | 91看片淫黄大片在线播放 | 国产三级国产精品国产专区50 | 国产视频1区2区 | 丁香花五月 | 国产精品久久久久久婷婷天堂 | av资源网在线播放 | 五月激情丁香婷婷 | 在线播放 一区 | 久久精品国产久精国产 | 在线免费看黄网站 | 9999在线观看 | 免费高清男女打扑克视频 | 西西www4444大胆视频 | 亚洲va综合va国产va中文 | 久久艹艹 | 91亚洲精品久久久蜜桃借种 | 韩国在线一区二区 | 天天干,夜夜操 | 六月丁香婷婷网 | 久久噜噜少妇网站 | 涩涩网站在线看 | 米奇狠狠狠888 | 成人精品一区二区三区中文字幕 | 久久精品视频日本 | 亚洲欧美日韩一二三区 | 亚洲一区在线看 | 天天射天天干天天插 | 99精品一级欧美片免费播放 | 国产一区二区在线看 | 国产精品久久久久久久久软件 | 日日爱av | 亚洲人人av | 国产一区欧美在线 | 精品视频资源站 | 丁香激情综合久久伊人久久 | 午夜色大片在线观看 | 93久久精品日日躁夜夜躁欧美 | 五月婷婷中文网 | 国产资源| 中文字幕高清视频 | 国产高清视频在线 | 波多野结衣在线观看一区 | 亚洲国产精品va在线 | 在线免费黄色 | 日韩在线观看小视频 | 99精彩视频 | 97热久久免费频精品99 | 美女精品久久久 | 久久久久久久久久久久久久电影 | 中文字幕国产精品 | 女人18毛片a级毛片一区二区 | 91污污视频在线观看 | 免费在线a | 欧美日韩国产在线观看 | 日本不卡123区 | 亚洲专区欧美专区 | 97国产在线视频 | 欧美日本中文字幕 | 日韩欧美在线高清 | 中文字幕一区二区三区精华液 | 超碰人人av | 五月天伊人网 | 日韩二区在线播放 | 日韩在线观看一区二区三区 | 天天干天天操天天射 | 精品国产91亚洲一区二区三区www | 在线观看视频97 | 爱情影院aqdy鲁丝片二区 | 免费av观看 | 久久久久久久久久电影 | 99在线观看| 激情久久小说 | 久久情网 | 亚洲日本三级 | 日韩久久久久久久久久 | 欧美亚洲三级 | 亚洲做受高潮欧美裸体 | 人人插人人做 | 国产精品午夜av | 国产99久久久国产精品成人免费 | 国产精品欧美一区二区三区不卡 | 日韩亚洲国产中文字幕 | 婷婷国产在线 | 久久免费影院 | 91高清免费在线观看 | 热久久这里只有精品 | 91人人网 | 天堂在线一区二区 | 久久免费黄色大片 | 97超视频免费观看 | 成人国产一区二区 | 丁香花五月| 成人作爱视频 | 中文超碰字幕 | 亚洲五月激情 | 日本一区二区三区免费看 | 日本在线观看一区二区三区 | 成人免费视频免费观看 | 不卡av在线| 一区二区三区国产精品 | 免费看片成年人 | 欧美巨大荫蒂茸毛毛人妖 | 一区二区三区免费在线观看视频 | 免费又黄又爽 | 午夜精品久久久久久久久久 | 亚洲美女在线一区 | 在线成人短视频 | 天天超碰| 精品国产欧美 | 久久精品网站免费观看 | 91免费高清 | 9草在线 | 婷婷激情五月 | 激情九九 | 天天操天天干天天摸 | 久久久69 | 欧美激情视频一区二区三区 | 精品一区二区亚洲 | 国产一区二区精品91 | 人人爽人人爽人人爽学生一级 | 国产一区二区在线免费播放 | 日韩精品在线视频免费观看 | 99综合影院在线 | 欧美性脚交 | 一二区精品| 免费黄在线看 | 96看片| 亚洲国产午夜视频 | 99精品免费视频 | 亚洲精品国产区 | 亚洲va综合va国产va中文 | 色婷婷激情四射 | 偷拍福利视频一区二区三区 | 久久国产美女 | av超碰在线观看 | 国产精品每日更新 | 亚洲欧美久久 | 国产999在线观看 | 日韩在线理论 | www五月天婷婷| 亚洲精品成人av在线 | 国产精品 中文字幕 亚洲 欧美 | 国产成人无码AⅤ片在线观 日韩av不卡在线 | 最新动作电影 | 99热99re6国产在线播放 | 久久精品视频2 | 久久不卡免费视频 | 伊人中文字幕在线 | 国产夫妻av在线 | 色综合久久久久久久久五月 | 色先锋资源网 | 韩国三级在线一区 | 亚洲在线高清 | 国产精品久久久一区二区 | 99视频国产精品 | aaa日本高清在线播放免费观看 | 久久久影片 | 亚洲午夜av | 黄色电影网站在线观看 | 国产精品成人自产拍在线观看 | 亚洲欧美日韩国产一区二区 | 青青河边草免费观看完整版高清 | 国产一级性生活 | 中文字幕 在线看 | 成人av片免费观看app下载 | 日韩在线视频观看免费 | 日韩免费在线观看 | 婷婷在线视频 | 色狠狠操 | 国产小视频91 | 久久国产手机看片 | 国产一级久久久 | 免费在线观看一级片 | 国产精品短视频 | 四虎永久免费在线观看 | 国产精品夜夜夜一区二区三区尤 | 国内精品免费久久影院 | 国产成人在线免费观看 | 91成人精品一区在线播放69 | 久久午夜色播影院免费高清 | 九九热免费精品视频 | 亚洲久草网 | 99久久久免费视频 | 7777精品伊人久久久大香线蕉 | 91精品麻豆 | 国产视频精品在线 | 中文字幕av影院 | 午夜黄色大片 | 三级黄色网络 | 91精品视频观看 | 久久y | 天堂资源在线观看视频 | 免费观看一级特黄欧美大片 | 久久九九久久九九 | 欧美久久久久久久久中文字幕 | 久久九九影视 | 国产一区二区在线免费播放 | 亚洲影院一区 | 国产护士在线 | 麻豆传媒视频观看 | 综合天天网| 欧美成亚洲 | 亚洲精品成人免费 | 久久久污 | 欧美俄罗斯性视频 | 久久精品99国产精品酒店日本 | 午夜精品福利一区二区 | 日本成人免费在线观看 | 欧美日韩亚洲第一 | 天天天操天天天干 | 激情综合网色播五月 | 精品久久片 | 欧美久久电影 | www.五月天色| 成人一区二区在线观看 | 日日干天天爽 | 69亚洲视频 | 国产精品精品国产 | 日韩手机在线 | 青青草国产精品 | 高清在线一区 | 国产成人精品日本亚洲999 | 亚洲专区路线二 | 国产麻豆视频在线观看 | 友田真希x88av | 99久久综合狠狠综合久久 | 中文字幕高清视频 | 丁香激情婷婷 | 国产视频中文字幕在线观看 | 超碰在线日本 | 狠狠ri| 日韩在线一二三区 | 日韩高清一区 | 国产精品美女 | 欧美日韩成人一区 | 亚洲国产中文字幕在线视频综合 | 午夜久久久久久久 | www.777奇米 | 久久精品欧美一区二区三区麻豆 | 色综合人人 | 亚洲精品一区二区三区高潮 | 中文字幕在线观看视频一区二区三区 | 俺要去色综合狠狠 | 十八岁免进欧美 | 久久精品中文字幕一区二区三区 | 国产高清永久免费 | 91九色在线 | 国产在线观看一 | 999久久久久久久久久久 | 狠狠操天天干 | 911国产| 国产精品视频免费观看 | 亚洲精品国产自产拍在线观看 | www色,com| 最近日本中文字幕 | 超碰在线97免费 | 国产成人精品亚洲日本在线观看 | 欧美日韩精品久久久 | 精品专区一区二区 | 久草视频2| 美女视频黄免费的久久 | 日韩视频在线观看视频 | 天堂资源在线观看视频 | 国产精品国产三级国产aⅴ入口 | 天天操操操操操操 | 日韩av成人在线观看 | 国产精品不卡视频 | 国产九九精品 | 午夜精品电影一区二区在线 | 丁香六月婷婷综合 | 在线免费观看黄色av | 亚洲一区动漫 | 久久久国产一区二区三区 | 欧洲精品视频一区二区 | 激情开心站 | 婷婷伊人综合亚洲综合网 | 亚洲激精日韩激精欧美精品 | 日日夜夜天天干 | 国产美女被啪进深处喷白浆视频 | 99这里只有精品视频 | 操操综合网 | 在线观看中文字幕一区 | 国产精品视频免费观看 | 中文字幕视频一区二区 | 国产精品美女免费视频 | 日韩影视在线观看 | 欧美午夜性生活 | 欧美精品黑人性xxxx | 免费进去里的视频 | 中文字幕一区二区三区久久蜜桃 | 美女视频黄色免费 | 国产精品毛片久久久久久久久久99999999 | 人人爽影院 | 久久试看| 91精品电影 | 五月婷婷在线视频观看 | 2021久久| 九九热免费在线视频 | 精品理论片 | 国产精品 国产精品 | 五月天综合色激情 | 视频国产在线观看18 | 日本在线视频网址 | 91| 奇米影视8888在线观看大全免费 | 国产系列在线观看 | 欧美一二三视频 | 久久国产精品免费看 | 国产精品黄色 | 国产精品www| 国产精品免费一区二区三区 | 国产99黄| 狠狠干2018| 日韩在线国产 | 天天操天天干天天插 | 六月丁香六月婷婷 | 夜夜视频欧洲 | 91视视频在线直接观看在线看网页在线看 | 麻豆av一区二区三区在线观看 | 四虎天堂 | 国产69久久久 | 国产成人精品一区二区三区免费 | 久久国产精品久久久久 | 亚洲天天摸日日摸天天欢 | 在线直播av | 色干干 | 午夜在线国产 | 国产在线精品一区二区不卡了 | 久久黄色片子 | 黄色软件大全网站 | 日韩超碰 | 男女靠逼app | 国产精品久久久久永久免费观看 | 超碰com| 国产精品成人一区二区三区 | 毛片网站在线 | 国产麻豆精品一区二区 | 欧美日韩不卡一区 | 国产精品资源在线观看 | 丁香婷婷综合激情 | 国产专区日韩专区 | 中文字幕在线播放av | 亚洲美女精品 | 日韩欧美视频免费看 | 久久伦理影院 | 超碰大片 | 人人草在线视频 | 国产视频在线一区二区 | 久草在线视频免赞 | 天天精品视频 | 午夜精品久久久久久 | www毛片com| adn—256中文在线观看 | 久久精品韩国 | 中文字幕在 | 久久综合射 | 九九久久成人 | 国产精品一区二区三区在线播放 | 久久久激情视频 | 狠狠色丁香婷婷综合橹88 | 日本资源中文字幕在线 | 日本精品在线视频 | 欧美va电影 | 色视频 在线 | 免费午夜视频在线观看 | 欧美日韩视频一区二区三区 | 久九视频 | 精品国产一区二区三区四区vr | 色综合天天色综合 | 亚州人成在线播放 | 久久99中文字幕 | 亚洲黄色免费网站 | 国产高清不卡av | 天天狠狠 | 手机在线看片日韩 | 丁香激情视频 | 日韩国产在线观看 | 99亚洲精品视频 | 成片视频免费观看 | 天天操天天添天天吹 | 在线观看免费视频你懂的 | 日韩一区二区三区视频在线 | 日本深夜福利视频 | 免费在线a| 麻豆91小视频 | 女人魂免费观看 | 成人理论在线观看 | 亚洲最新av在线 | www.国产在线视频 | 日韩电影一区二区在线 | 麻豆va一区二区三区久久浪 | 婷婷色综合网 | 日本久久91 | 久久视频免费 | 国产永久免费观看 | 国产福利一区二区在线 | 亚洲综合欧美日韩狠狠色 | 国产一级电影免费观看 | 在线观看免费福利 | 日韩中文字幕电影 | 亚洲精品国产综合久久 | 国产一区二区久久久 | 国产成人久久av | 天天射天天舔天天干 | 在线免费观看不卡av | 国产原创中文在线 | 正在播放一区二区 | 欧美日韩一区二区免费在线观看 | 91中文字幕网 | 免费看特级毛片 | 亚洲精品18日本一区app | 一区精品在线 | 91爱在线 | 亚洲精品婷婷 | 97精产国品一二三产区在线 | 欧美一区二区三区在线观看 | 97天堂网 | 日av免费| 国产综合久久 | 视频在线观看99 | 93久久精品日日躁夜夜躁欧美 | 免费视频久久久久 | 亚洲黄色成人av | 成人a视频在线观看 | 日韩免费一区二区三区 | 久久a级片 | 综合精品久久久 | 中文字幕91视频 | 亚洲精品美女在线 | 久久精品爱爱视频 | 亚洲精品国产精品国自 | 在线观看视频免费大全 | 国内精品久久天天躁人人爽 | 2020天天干天天操 | 最新高清无码专区 | 欧美激情xxxx性bbbb | 粉嫩av一区二区三区入口 | 成人av av在线 | 国产黄色免费电影 | 99国产在线视频 | 亚州日韩中文字幕 | 国产视频97 | 中文字幕在线观看免费观看 | 嫩草av在线 | 在线看国产日韩 | 免费福利视频导航 | 亚洲涩综合 | 超碰人人乐 | 国产精品爽爽久久久久久蜜臀 | 欧美性猛片, | 欧美韩国在线 | 激情视频区| 国产精品久久久久久一区二区三区 | 亚洲精品在线看 | 国产一区二区免费 | 久草在线视频首页 | 激情欧美一区二区三区 | 久久tv视频| 中文av在线免费观看 | 亚州成人av在线 | 天天干视频在线 | 一区二精品 | 日韩视频在线观看视频 | 精品国产一区二区三区av性色 | 丁香久久综合 | 欧美在一区 | 在线网址你懂得 | 日韩69视频| 视频高清 | 在线成人中文字幕 | 一区二区三区高清在线 | 91在线日韩 | 婷婷在线播放 | 国产91精品一区二区麻豆网站 | 99久久精品费精品 | 丁香激情综合 | 五月婷婷综合激情网 | 97色狠狠| 日韩中文三级 | 欧美大片www | 色老板在线视频 | 国产成人精品电影久久久 | 香蕉在线视频播放网站 | 91香蕉亚洲精品 | 欧美综合国产 | 久精品视频在线观看 | 日日久视频 | 免费在线观看一区二区三区 | 国产99黄| 欧美精品一区二区蜜臀亚洲 | 免费大片av | 黄色片网站 | www.av小说| 亚洲欧美日韩一区二区三区在线观看 | 日韩av电影免费观看 | 久久久99精品免费观看乱色 | 天堂av网址| 亚洲观看黄色网 | 精品国产一区二区三区不卡 | 亚洲视频综合在线 | 久久综合久久久 | 91精品专区 | 91亚洲精品久久久 | 一区二区欧美日韩 | 国产一级特黄毛片在线毛片 | 香蕉视频网站在线观看 | 国产精品久一 |