日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Raft 论文翻译

發(fā)布時間:2024/2/28 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Raft 论文翻译 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

目錄

1.?介紹

2.?復(fù)制狀態(tài)機

3.?Paxos算法的問題

4.?為了可理解性的設(shè)計

5.?Raft一致性算法

6.?集群成員變化

7.?日志壓縮

8.?客戶端交互

9.?算法實現(xiàn)和評估

10.?相關(guān)工作

11.?結(jié)論


In Search of an Understandable Consensus Algorithm?(Extended Version)

尋找一種易于理解的一致性算法(擴展版)

摘要

Raft是一種為了管理復(fù)制日志的一致性算法。它提供了和 Paxos算法相同的功能和性能,但是它的算法結(jié)構(gòu)和 Paxos不同,使得Raft算法更加容易理解并且更容易構(gòu)建實際的系統(tǒng)。為了提升可理解性,Raft將一致性算法分解成了幾個關(guān)鍵模塊,例如Leader選舉日志復(fù)制安全性。同時它通過實施一個更強的一致性來減少需要考慮的狀態(tài)的數(shù)量。從一個用戶研究的結(jié)果可以證明,對于學(xué)生而言,Raft算法比 Paxos算法更加容易學(xué)習(xí)。Raft算法還包括一個新的機制來允許集群成員的動態(tài)改變,它利用重疊的大多數(shù)來保證安全性。

?

1.?介紹

一致性算法允許一組機器像一個整體一樣工作,即使其中一些機器出現(xiàn)故障也能夠繼續(xù)工作下去。正因如此,一致性算法在構(gòu)建可信賴的大規(guī)模軟件系統(tǒng)中扮演著重要的角色。在過去的 10 年里,Paxos算法統(tǒng)治著一致性算法這一領(lǐng)域:絕大多數(shù)的實現(xiàn)都是基于 Paxos或者受其影響。同時 Paxos也成為了教學(xué)領(lǐng)域里講解一致性問題時的示例。

但是不幸的是,盡管有很多工作都在嘗試降低它的復(fù)雜性,但是 Paxos算法依然十分難以理解。并且,Paxos自身的算法結(jié)構(gòu)需要進行大幅的修改才能夠應(yīng)用到實際的系統(tǒng)中。這些都導(dǎo)致了工業(yè)界和學(xué)術(shù)界都對 Paxos算法感到十分頭疼。

Paxos算法進行過努力之后,我們開始尋找一種新的一致性算法,可以為構(gòu)建實際的系統(tǒng)和教學(xué)提供更好的基礎(chǔ)。我們的做法是不尋常的,我們的首要目標(biāo)是可理解性:我們是否可以在實際系統(tǒng)中定義一個一致性算法,并且能夠比 Paxos算法以一種更加容易的方式來學(xué)習(xí)。此外,我們希望該算法方便系統(tǒng)構(gòu)建者的直覺的發(fā)展。一個算法能夠工作很重要,而且能夠知道為什么能工作也很重要。

Raft一致性算法就是這些工作的結(jié)果。在設(shè)計Raft算法的時候,我們使用一些特別的技巧來提升它的可理解性,包括算法分解(Raft主要被分成了Leader選舉,日志復(fù)制和安全三個模塊)和減少狀態(tài)機的狀態(tài)(相對于 Paxos,Raft減少了非確定性和服務(wù)器互相處于非一致性的方式)。一份針對兩所大學(xué) 43 個學(xué)生的研究表明Raft明顯比 Paxos算法更加容易理解。在這些學(xué)生同時學(xué)習(xí)了這兩種算法之后,和 Paxos比起來,其中 33 個學(xué)生能夠回答有關(guān)于Raft的問題。

Raft算法在許多方面和現(xiàn)有的一致性算法都很相似(主要是 Oki 和 Liskov 的 Viewstamped Replication),但是它也有一些獨特的特性:

強領(lǐng)導(dǎo)者(Strong leader):和其一致性算法相比,Raft使用一種更強的領(lǐng)導(dǎo)能力形式。比如,日志條目只從領(lǐng)導(dǎo)者發(fā)送給其的服務(wù)器。這種方式簡化了對復(fù)制日志的管理并且使得Raft算法更加易于理解。

領(lǐng)導(dǎo)選舉(Leader election)Raft算法使用一個隨機計時器來選舉領(lǐng)導(dǎo)者。這種方式只是在任何一致性算法都必須實現(xiàn)的心跳機制上增加了一點機制。在解決沖突的時候會更加簡單快捷。

成員關(guān)系調(diào)整(Membership changes)Raft使用一種共同一致的方法來處理集群成員變換的問題,在這種方法下,處于調(diào)整過程中的兩種不同的配置集群中大多數(shù)機器會有重疊,這就使得集群在成員變換的時候依然可以繼續(xù)工作。

?

我們相信,Raft算法不論出于教學(xué)目的還是作為實踐項目的基礎(chǔ)都是要比 Paxos或者其一致性算法要優(yōu)異的。它比其算法更加簡單,更加容易理解;它的算法描述足以實現(xiàn)一個現(xiàn)實的系統(tǒng);它有好多開源的實現(xiàn)并且在很多公司里使用;它的安全性已經(jīng)被證明;它的效率和其算法比起來也不相上下。

接下來,這篇論文會介紹以下內(nèi)容:復(fù)制狀態(tài)機問題(第 2 節(jié)),討論 Paxos的優(yōu)點和缺點(第 3 節(jié)),討論我們?yōu)榱丝衫斫庑远扇〉姆椒?#xff08;第 4 節(jié)),闡述Raft一致性算法(第 5-8 節(jié)),評價Raft算法(第 9 節(jié)),以及一些相關(guān)的工作(第 10 節(jié))。

?

2.?復(fù)制狀態(tài)機

一致性算法是從復(fù)制狀態(tài)機的背景下提出的。在這種方法中,一組服務(wù)器上的狀態(tài)機產(chǎn)生相同狀態(tài)的副本,并且在一些機器宕掉的情況下也可以繼續(xù)運行。復(fù)制狀態(tài)機在分布式系統(tǒng)中被用于解決很多容錯的問題。例如,大規(guī)模的系統(tǒng)中通常都有一個集群領(lǐng)導(dǎo)者,像 GFS、HDFS 和 RAMCloud,典型應(yīng)用就是一個獨立的的復(fù)制狀態(tài)機去管Leader舉和存儲配置信息并且在Leader宕機的情況下也要存活下來。比如 Chubby 和 ZooKeeper。

圖1:復(fù)制狀態(tài)機的結(jié)構(gòu)。一致性算法管理著來自客戶端指令的復(fù)制日志。狀態(tài)機從日志中處理相同順序的相同指令,所以產(chǎn)生的結(jié)果也是相同的。

復(fù)制狀態(tài)機通常都是基于復(fù)制日志實現(xiàn)的,如圖 1。每一個服務(wù)器存儲一個包含一系列指令的日志,并且按照日志的順序進行執(zhí)行。每一個日志都按照相同的順序包含相同的指令,所以每一個服務(wù)器都執(zhí)行相同的指令序列。因為每個狀態(tài)機都是確定的,每一次執(zhí)行操作都產(chǎn)生相同的狀態(tài)和同樣的序列。

保證復(fù)制日志相同就是一致性算法的工作了。在一臺服務(wù)器上,一致性模塊接收客戶端發(fā)送來的指令然后增加到自己的日志中去。它和其服務(wù)器上的一致性模塊進行通信來保證每一個服務(wù)器上的日志最終都以相同的順序包含相同的請求,盡管有些服務(wù)器會宕機。一旦指令被正確的復(fù)制,每一個服務(wù)器的狀態(tài)機按照日志順序處理們,然后輸出結(jié)果被返回給客戶端。因此,服務(wù)器集群看起來形成一個高可靠的狀態(tài)機。

實際系統(tǒng)中使用的一致性算法通常含有以下特性:

  • 安全性保證(絕對不會返回一個錯誤的結(jié)果):在非拜占庭錯誤情況下,包括網(wǎng)絡(luò)延遲、分區(qū)、丟包、冗余和亂序等錯誤都可以保證正確。
  • 可用性:集群中只要有大多數(shù)的機器可運行并且能夠相互通信、和客戶端通信,就可以保證可用。因此,一個典型的包含 5 個節(jié)點的集群可以容忍兩個節(jié)點的失敗。服務(wù)器被停止就認(rèn)為是失敗。們當(dāng)有穩(wěn)定的存儲的時候可以從狀態(tài)中恢復(fù)回來并重新加入集群。
  • 不依賴時序來保證一致性:物理時鐘錯誤或者極端的消息延遲只有在最壞情況下才會導(dǎo)致可用性問題。
  • 通常情況下,一條指令可以盡可能快的在集群中大多數(shù)節(jié)點響應(yīng)一輪遠程過程調(diào)用時完成。小部分比較慢的節(jié)點不會影響系統(tǒng)整體的性能。
  • ?

    3.?Paxos算法的問題

    在過去的 10 年里,Leslie Lamport 的 Paxos算法幾乎已經(jīng)成為一致性的代名詞:Paxos是在課程教學(xué)中最經(jīng)常使用的算法,同時也是大多數(shù)一致性算法實現(xiàn)的起點。Paxos首先定義了一個能夠達成單一決策一致的協(xié)議,比如單條的復(fù)制日志項。我們把這一子集叫做單決策 Paxos。然后通過組合多個 Paxos協(xié)議的實例來促進一系列決策的達成。Paxos保證安全性和活性,同時也支持集群成員關(guān)系的變更。Paxos的正確性已經(jīng)被證明,在通常情況下也很高效。

    不幸的是,Paxos有兩個明顯的缺點。第一個缺點是 Paxos算法特別的難以理解。完整的解釋是出了名的不透明;通過極大的努力之后,也只有少數(shù)人成功理解了這個算法。因此,有了幾次用更簡單的術(shù)語來解釋 Paxos的嘗試。盡管這些解釋都只關(guān)注了單決策的子集問題,但依然很具有挑戰(zhàn)性。在 2012 年 NSDI 的會議中的一次調(diào)查顯示,很少有人對 Paxos算法感到滿意,甚至在經(jīng)驗老道的研究者中也是如此。我們自己也嘗試去理解 Paxos;我們一直沒能理解 Paxos直到我們讀了很多對 Paxos的簡化解釋并且設(shè)計了我們自己的算法之后,這一過程花了近一年時間。

    我們假設(shè) Paxos的不透明性來自它選擇單決策問題作為它的基礎(chǔ)。單決策 Paxos是晦澀微妙的,它被劃分成了兩種沒有簡單直觀解釋和無法獨立理解的情景。因此,這導(dǎo)致了很難建立起直觀的感受為什么單決策 Paxos算法能夠工作。構(gòu)成多決策 Paxos增加了很多錯綜復(fù)雜的規(guī)則。我們相信,在多決策上達成一致性的問題(一份日志而不是單一的日志記錄)能夠被分解成其的方式并且更加直接和明顯。

    Paxos算法的第二個問題就是它沒有提供一個足夠好的用來構(gòu)建一個現(xiàn)實系統(tǒng)的基礎(chǔ)。一個原因是還沒有一種被廣泛認(rèn)同的多決策問題的算法。Lamport 的描述基本上都是關(guān)于單決策 Paxos的;簡要描述了實施多決策 Paxos的方法,但是缺乏很多細節(jié)。當(dāng)然也有很多具體化 Paxos的嘗試,但是們都互相不一樣,和 Paxos的概述也不同。例如 Chubby 這樣的系統(tǒng)實現(xiàn)了一個類似于 Paxos的算法,但是大多數(shù)的細節(jié)并沒有被公開。

    而且,Paxos算法的結(jié)構(gòu)也不是十分易于構(gòu)建實踐的系統(tǒng);單決策分解也會產(chǎn)生其的結(jié)果。例如,獨立的選擇一組日志條目然后合并成一個序列化的日志并沒有帶來太多的好處,僅僅增加了不少復(fù)雜性。圍繞著日志來設(shè)計一個系統(tǒng)是更加簡單高效的;新日志條目以嚴(yán)格限制的順序增添到日志中去。另一個問題是,Paxos使用了一種對等的點對點的方式作為它的核心(盡管它最終提議了一種弱Leader的方法來優(yōu)化性能)。在只有一個決策會被制定的簡化世界中是很有意義的,但是很少有現(xiàn)實的系統(tǒng)使用這種方式。如果有一系列的決策需要被制定,首先選擇一個Leader,然后讓去協(xié)調(diào)所有的決議,會更加簡單快速。

    因此,實際的系統(tǒng)中很少有和 Paxos相似的實踐。每一種實現(xiàn)都是從 Paxos開始研究,然后發(fā)現(xiàn)很多實現(xiàn)上的難題,再然后開發(fā)了一種和 Paxos明顯不一樣的結(jié)構(gòu)。這樣是非常費時和容易出錯的,并且理解 Paxos的難度使得這個問題更加糟糕。Paxos算法在理論上被證明是正確可行的,但是現(xiàn)實的系統(tǒng)和 Paxos差別是如此的大,以至于這些證明沒有什么太大的價值。下面來自 Chubby 實現(xiàn)非常典型:

  • 在Paxos算法描述和實現(xiàn)現(xiàn)實系統(tǒng)中間有著巨大的鴻溝。最終的系統(tǒng)建立在一種沒有經(jīng)過證明的算法之上。
  • 由于以上問題,我們認(rèn)為 Paxos算法既沒有提供一個良好的基礎(chǔ)給實踐的系統(tǒng),也沒有給教學(xué)很好的幫助。基于一致性問題在大規(guī)模軟件系統(tǒng)中的重要性,我們決定看看我們是否可以設(shè)計一個擁有更好特性的替代 Paxos的一致性算法。Raft算法就是這次實驗的結(jié)果。

    ?

    4.?為了可理解性的設(shè)計

    設(shè)計Raft算法我們有幾個初衷:它必須提供一個完整的實際的系統(tǒng)實現(xiàn)基礎(chǔ),這樣才能大大減少開發(fā)者的工作;它必須在任何情況下都是安全的并且在大多數(shù)的情況下都是可用的;并且它的大部分操作必須是高效的。但是我們最重要也是最大的挑戰(zhàn)是可理解性。它必須保證對于普遍的人群都可以十分容易的去理解。另外,它必須能夠讓人形成直觀的認(rèn)識,這樣系統(tǒng)的構(gòu)建者才能夠在現(xiàn)實中進行必然的擴展。

    在設(shè)計Raft算法的時候,有很多的點需要我們在各種備選方案中進行選擇。在這種情況下,我們評估備選方案基于可理解性原則:解釋各個備選方案有多大的難度(例如,Raft的狀態(tài)空間有多復(fù)雜,是否有微妙的暗示)?對于一個讀者而言,完全理解這個方案和暗示是否容易?

    我們意識到對這種可理解性分析上具有高度的主觀性;盡管如此,我們使用了兩種通常適用的技術(shù)來解決這個問題。第一個技術(shù)就是眾所周知的問題分解:只要有可能,我們就將問題分解成幾個相對獨立的,可被解決的、可解釋的和可理解的子問題。例如,Raft算法被我們分成Leader選舉,日志復(fù)制,安全性和角色改變幾個部分。

    我們使用的第二個方法是通過減少狀態(tài)的數(shù)量來簡化需要考慮的狀態(tài)空間,使得系統(tǒng)更加連貫并且在可能的時候消除不確定性。特別的,所有的日志是不允許有空洞的,并且Raft限制了日志之間變成不一致狀態(tài)的可能。盡管在大多數(shù)情況下我們都試圖去消除不確定性,但是也有一些情況下不確定性可以提升可理解性。尤其是,隨機化方法增加了不確定性,但是們有利于減少狀態(tài)空間數(shù)量,通過處理所有可能選擇時使用相似的方法。我們使用隨機化去簡化RaftLeader選舉算法。

    ?

    5.?Raft一致性算法

    Raft是一種用來管理章節(jié) 2 中描述的復(fù)制日志的算法。圖 2 為了參考之用,總結(jié)這個算法的簡略版本,圖 3 列舉了這個算法的一些關(guān)鍵特性。圖中的這些元素會在剩下的章節(jié)逐一介紹。(接下來的4張圖是原論文中的圖2的內(nèi)容)

    Raft通過選舉一個Leader,然后給予全部的管理復(fù)制日志的責(zé)任來實現(xiàn)一致性。Leader從客戶端接收日志條目,把日志條目復(fù)制到其服務(wù)器上,并且當(dāng)保證安全性的時候告訴其的服務(wù)器應(yīng)用日志條目到們的狀態(tài)機中。擁有一個Leader大大簡化了對復(fù)制日志的管理。例如,Leader可以決定新的日志條目需要放在日志中的什么位置而不需要和其服務(wù)器商議,并且數(shù)據(jù)都從Leader流向其服務(wù)器。一個Leader可以宕機,可以和其服務(wù)器失去連接,這時一個新的Leader會被選舉出來。

    通過Leader的方式,Raft將一致性問題分解成了三個相對獨立的子問題,這些問題會在接下來的子章節(jié)中進行討論:

  • 領(lǐng)導(dǎo)選舉:一個新的Leader需要被選舉出來,當(dāng)現(xiàn)存的Leader宕機的時候(章節(jié) 5.2)
  • 日志復(fù)制:Leader必須從客戶端接收日志然后復(fù)制到集群中的其節(jié)點,并且強制要求其節(jié)點的日志保持和自己相同。
  • 安全性:在Raft中安全性的關(guān)鍵是在圖 3 中展示的狀態(tài)機安全:如果有任何的服務(wù)器節(jié)點已經(jīng)應(yīng)用了一個確定的日志條目到它的狀態(tài)機中,那么其服務(wù)器節(jié)點不能在同一個日志索引位置應(yīng)用一個不同的指令。章節(jié) 5.4 闡述了Raft算法是如何保證這個特性的;這個解決方案涉及到一個額外的選舉機制(5.2 節(jié))上的限制。
  • 在展示一致性算法之后,這一章節(jié)會討論可用性的一些問題和計時在系統(tǒng)的作用。

    狀態(tài):

    狀態(tài)所有服務(wù)器上持久存在的
    currentTerm服務(wù)器最后一次知道的任期號(初始化為 0,持續(xù)遞增)
    votedFor在當(dāng)前獲得選票的候選人的 Id
    log[]日志條目集;每一個條目包含一個用戶狀態(tài)機執(zhí)行的指令,和收到時的任期號
    狀態(tài)所有服務(wù)器上經(jīng)常變的
    commitIndex已知的最大的已經(jīng)被提交的日志條目的索引值
    lastApplied最后被應(yīng)用到狀態(tài)機的日志條目索引值(初始化為 0,持續(xù)遞增)
    狀態(tài)在領(lǐng)導(dǎo)人里經(jīng)常改變的 (選舉后重新初始化)
    nextIndex[]對于每一個服務(wù)器,需要發(fā)送給他的下一個日志條目的索引值(初始化為領(lǐng)導(dǎo)人最后索引值加一)
    matchIndex[]對于每一個服務(wù)器,已經(jīng)復(fù)制給他的日志的最高索引值

    ?

    附加日志 RPC:

    Leader負(fù)責(zé)調(diào)用來復(fù)制日志指令;也會用作heartbeat

    參數(shù)解釋
    term領(lǐng)導(dǎo)人的任期號
    leaderId領(lǐng)導(dǎo)人的 Id,以便于跟隨者重定向請求
    prevLogIndex新的日志條目緊隨之前的索引值
    prevLogTermprevLogIndex 條目的任期號
    entries[]準(zhǔn)備存儲的日志條目(表示心跳時為空;一次性發(fā)送多個是為了提高效率)
    leaderCommit領(lǐng)導(dǎo)人已經(jīng)提交的日志的索引值
    返回值解釋
    term當(dāng)前的任期號,用于領(lǐng)導(dǎo)人去更新自己
    success跟隨者包含了匹配上 prevLogIndex 和 prevLogTerm 的日志時為真

    接收者實現(xiàn):

    1. 如果? term < currentTerm 就返回 false (5.1 節(jié))

    2. 如果日志在 prevLogIndex 位置處的日志條目的任期號和 prevLogTerm 不匹配,則返回 false (5.3 節(jié))

    3. 如果已經(jīng)存在的日志條目和新的產(chǎn)生沖突(索引值相同但是任期號不同),刪除這一條和之后所有的 (5.3 節(jié))

    4. 附加日志中尚未存在的任何新條目

    5. 如果 leaderCommit > commitIndex,令 commitIndex 等于 leaderCommit 和 新日志條目索引值中較小的一個

    ?

    請求投票 RPC:

    由候選人負(fù)責(zé)調(diào)用用來征集選票(5.2 節(jié))

    參數(shù)解釋
    term候選人的任期號
    candidateId請求選票的候選人的 Id
    lastLogIndex候選人的最后日志條目的索引值
    lastLogTerm候選人最后日志條目的任期號
    返回值解釋
    term當(dāng)前任期號,以便于候選人去更新自己的任期號
    voteGranted候選人贏得了此張選票時為真

    接收者實現(xiàn):

    1. 如果? term < currentTerm? 返回 false (5.2 節(jié))

    2. 如果 votedFor 為空或者為 candidateId,并且候選人的日志至少和自己一樣新,那么就投票給(5.2 節(jié),5.4 節(jié))

    ?

    所有服務(wù)器需遵守的規(guī)則:

    所有服務(wù)器:

  • 如果? commitIndex > lastApplied,那么就 lastApplied 加一,并把 log[lastApplied] 應(yīng)用到狀態(tài)機中(5.3 節(jié))
  • 如果接收到的 RPC 請求或響應(yīng)中,任期號? T > currentTerm,那么就令 currentTerm 等于 T,并切換狀態(tài)為Follower(5.1 節(jié))
  • Follower(5.2 節(jié)):

  • 響應(yīng)來自候選人和領(lǐng)導(dǎo)者的請求
  • 如果在超過選舉超時時間的情況之前都沒有收到Leader的心跳,或者是候選人請求投票的,就自己變成候選人
  • 候選人(5.2 節(jié)):

    * 在轉(zhuǎn)變成候選人后就立即開始選舉過程

    ? ? ? ?* 自增當(dāng)前的任期號(currentTerm)

    ? ? ? ?* 給自己投票

    ? ? ? ?* 重置選舉超時計時器

    ? ? ? ?* 發(fā)送請求投票的 RPC 給其所有服務(wù)器

    * 如果接收到大多數(shù)服務(wù)器的選票,那么就變成Leader

    * 如果接收到來自新的Leader的附加日志 RPC,轉(zhuǎn)變成Follower

    * 如果選舉過程超時,再次發(fā)起一輪選舉

    Leader

    * 一旦成為Leader:發(fā)送空的附加日志 RPC(心跳)給其所有的服務(wù)器;在一定的空余時間之后不停的重復(fù)發(fā)送,以阻止Follower超時(5.2 節(jié))

    * ?如果接收到來自客戶端的請求:附加條目到本地日志中,在條目被應(yīng)用到狀態(tài)機后響應(yīng)客戶端(5.3 節(jié))

    * ?如果對于一個Follower,最后日志條目的索引值大于等于 nextIndex,那么:發(fā)送從 nextIndex 開始的所有日志條目:

    ? ? ? ?* 如果成功:更新相應(yīng)Follower的 nextIndex 和 matchIndex

    ? ? ? ?* 如果因為日志不一致而失敗,減少 nextIndex 重試

    * 如果存在一個滿足? N > commitIndex? 的 N,并且大多數(shù)的? matchIndex[i] ≥ N? 成立,并且? log[N].term == currentTerm? 成立,那么令 commitIndex 等于這個 N (5.3 和 5.4 節(jié))

    圖2(上面4張圖):一個關(guān)于Raft一致性算法的濃縮總結(jié)(不包括成員變換和日志壓縮)。左上框中的服務(wù)器行為描述為一組獨立且重復(fù)觸發(fā)的規(guī)則。第5.2條等章節(jié)編號表明了討論特殊特征的地方。

    ?

    特性解釋
    選舉安全特性對于一個給定的任期號,最多只會有一個領(lǐng)導(dǎo)人被選舉出來(5.2 節(jié))
    領(lǐng)導(dǎo)人只附加原則領(lǐng)導(dǎo)人絕對不會刪除或者覆蓋自己的日志,只會增加(5.3 節(jié))
    日志匹配原則如果兩個日志在相同的索引位置的日志條目的任期號相同,那么我們就認(rèn)為這個日志從頭到這個索引位置之間全部完全相同(5.3 節(jié))
    領(lǐng)導(dǎo)人完全特性如果某個日志條目在某個任期號中已經(jīng)被提交,那么這個條目必然出現(xiàn)在更大任期號的所有領(lǐng)導(dǎo)人中(5.4 節(jié))
    狀態(tài)機安全特性如果一個領(lǐng)導(dǎo)人已經(jīng)在給定的索引值位置的日志條目應(yīng)用到狀態(tài)機中,那么其他任何的服務(wù)器在這個索引位置不會提交一個不同的日志(5.4.3 節(jié))

    圖3:Raft在任何時候都保證以上的各個特性。

    ?

    5.1?Raft基礎(chǔ)

    一個Raft集群包含若干個服務(wù)器節(jié)點;通常是 5 個,這允許整個系統(tǒng)容忍 2 個節(jié)點的失效。在任何時刻,每一個服務(wù)器節(jié)點都處于這三個狀態(tài)之一:LeaderFollower或者Candidate。在通常情況下,系統(tǒng)中只有一個Leader并且其的節(jié)點全部都是FollowerFollower都是被動的:它們不會發(fā)送任何請求,只是簡單的響應(yīng)來自領(lǐng)導(dǎo)者或者Candidate的請求。Leader處理所有的客戶端請求(如果一個客戶端和Follower聯(lián)系,那么Follower會把請求重定向給Leader)。第三種狀態(tài),Candidate,是用來在 5.2 節(jié)描述的選舉新Leader時使用。圖 4 展示了這些狀態(tài)和們之間的轉(zhuǎn)換關(guān)系;這些轉(zhuǎn)換關(guān)系會在接下來進行討論。

    圖4:服務(wù)器狀態(tài)。Follower只響應(yīng)來自其它服務(wù)器的請求。如果Follower接收不到消息,那么它就會變成Candidate并發(fā)起一次選舉。獲得集群中大多數(shù)選票的Candidate將成為Leader。在一個任期內(nèi),Leader一直直到自己宕機都會是領(lǐng)導(dǎo)者。

    圖5:時間被劃分成一個個的任期,每個任期開始都是一次選舉。在選舉成功后,Leader會管理整個集群直到任期結(jié)束。有時候選舉會失敗,那么這個任期就會沒有Leader而結(jié)束。任期之間的切換可以在不同的時間不同的服務(wù)器上觀察到。

    Raft把時間分割成任意長度的任期,如圖 5。任期用連續(xù)的整數(shù)標(biāo)記。每一段任期從一次**選舉**開始,就像章節(jié) 5.2 描述的一樣,一個或者多個候選人嘗試成為領(lǐng)導(dǎo)者。如果一個候選人贏得選舉,然后它就在接下來的任期內(nèi)充當(dāng)Leader的職責(zé)。在某些情況下,一次選舉過程會造成選票的瓜分。在這種情況下,這一任期會以沒有Leader結(jié)束;一個新的任期(和一次新的選舉)會很快重新開始。Raft保證了在一個給定的任期內(nèi),最多只有一個領(lǐng)導(dǎo)者。

    不同的服務(wù)器節(jié)點可能多次觀察到任期之間的轉(zhuǎn)換,但在某些情況下,一個節(jié)點也可能觀察不到任何一次選舉或者整個任期全程。任期在Raft算法中充當(dāng)邏輯時鐘的作用,這會允許服務(wù)器節(jié)點查明一些過期的信息比如陳舊的領(lǐng)導(dǎo)者。每一個節(jié)點存儲一個當(dāng)前任期號,這一編號在整個時期內(nèi)單調(diào)的增長。當(dāng)服務(wù)器之間通信的時候會交換當(dāng)前任期號;如果一個服務(wù)器的當(dāng)前任期號比其人小,那么會更新自己的編號到較大的編號值。如果一個候選人或者領(lǐng)導(dǎo)者發(fā)現(xiàn)自己的任期號過期了,那么會立即恢復(fù)成Follower狀態(tài)。如果一個節(jié)點接收到一個包含過期的任期號的請求,那么會直接拒絕這個請求。

    Raft算法中服務(wù)器節(jié)點之間通信使用遠程過程調(diào)用(RPCs),并且基本的一致性算法只需要兩種類型的 RPCs。請求投票(RequestVote) RPCs 由候選人在選舉期間發(fā)起(章節(jié) ?5.2),然后附加條目(AppendEntries)RPCs 由Leader發(fā)起,用來復(fù)制日志和提供一種心跳機制(章節(jié) 5.3)。第 7 節(jié)為了在服務(wù)器之間傳輸快照增加了第三種 RPC。當(dāng)服務(wù)器沒有及時的收到 RPC 的響應(yīng)時,會進行重試, 并且們能夠并行的發(fā)起 RPCs 來獲得最佳的性能。

    ?

    5.2 Leader選舉

    Raft使用一種心跳機制來觸發(fā)Leader選舉。當(dāng)服務(wù)器程序啟動時,們都是Follower身份。一個服務(wù)器節(jié)點繼續(xù)保持著Follower狀態(tài)只要Leader或者候選者處接收到有效的 RPCs。領(lǐng)導(dǎo)者周期性的向所有Follower發(fā)送心跳包(即不包含日志項內(nèi)容的附加日志項 RPCs)來維持自己的權(quán)威。如果一個Follower在一段時間里沒有接收到任何消息,也就是**選舉超時**,那么就會認(rèn)為系統(tǒng)中沒有可用的領(lǐng)導(dǎo)者,并且發(fā)起選舉以選出新的領(lǐng)導(dǎo)者。

    要開始一次選舉過程,Follower先要增加自己的當(dāng)前任期號并且轉(zhuǎn)換到候選人狀態(tài)。然后會并行的向集群中的其服務(wù)器節(jié)點發(fā)送請求投票的 RPCs 來給自己投票。候選人會繼續(xù)保持著當(dāng)前狀態(tài)直到以下三件事情之一發(fā)生:(a) 自己贏得了這次的選舉,(b) 其的服務(wù)器成為領(lǐng)導(dǎo)者,(c) 一段時間之后沒有任何一個獲勝的人。這些結(jié)果會分別的在下面的段落里進行討論。

    當(dāng)一個候選人從整個集群的大多數(shù)服務(wù)器節(jié)點獲得了針對同一個任期號的選票,那么就贏得了這次選舉并成為Leader。每一個服務(wù)器最多會對一個任期號投出一張選票,按照先來先服務(wù)的原則(注意:5.4 節(jié)在投票上增加了一點額外的限制)。要求大多數(shù)選票的規(guī)則確保了最多只會有一個候選人贏得此次選舉(圖 3 中的選舉安全性)。一旦候選人贏得選舉,就立即成為Leader。然后會向其的服務(wù)器發(fā)送心跳消息來建立自己的權(quán)威并且阻止新的Leader的產(chǎn)生。

    在等待投票的時候,候選人可能會從其的服務(wù)器接收到聲明它是Leader的附加日志項 RPC。如果這個Leader的任期號(包含在此次的 RPC中)不小于候選人當(dāng)前的任期號,那么候選人會承認(rèn)Leader合法并回到Follower狀態(tài)。 如果此次 RPC 中的任期號比自己小,那么候選人就會拒絕這次的 RPC 并且繼續(xù)保持候選人狀態(tài)。

    第三種可能的結(jié)果是候選人既沒有贏得選舉也沒有輸:如果有多個Follower同時成為候選人,那么選票可能會被瓜分以至于沒有候選人可以贏得大多數(shù)人的支持。當(dāng)這種情況發(fā)生的時候,每一個候選人都會超時,然后通過增加當(dāng)前任期號來開始一輪新的選舉。然而,沒有其機制的話,選票可能會被無限的重復(fù)瓜分。

    Raft算法使用隨機選舉超時時間的方法來確保很少會發(fā)生選票瓜分的情況,就算發(fā)生也能很快的解決。為了阻止選票起初就被瓜分,選舉超時時間是從一個固定的區(qū)間(例如 150-300 毫秒)隨機選擇。這樣可以把服務(wù)器都分散開以至于在大多數(shù)情況下只有一個服務(wù)器會選舉超時;然后贏得選舉并在其服務(wù)器超時之前發(fā)送心跳包。同樣的機制被用在選票瓜分的情況下。每一個候選人在開始一次選舉的時候會重置一個隨機的選舉超時時間,然后在超時時間內(nèi)等待投票的結(jié)果;這樣減少了在新的選舉中另外的選票瓜分的可能性。9.3 節(jié)展示了這種方案能夠快速的選出一個Leader

    Leader選舉這個例子,體現(xiàn)了可理解性原則是如何指導(dǎo)我們進行方案設(shè)計的。起初我們計劃使用一種排名系統(tǒng):每一個候選人都被賦予一個唯一的排名,供候選人之間競爭時進行選擇。如果一個候選人發(fā)現(xiàn)另一個候選人擁有更高的排名,那么就會回到Follower狀態(tài),這樣高排名的候選人能夠更加容易的贏得下一次選舉。但是我們發(fā)現(xiàn)這種方法在可用性方面會有一點問題(如果高排名的服務(wù)器宕機了,那么低排名的服務(wù)器可能會超時并再次進入候選人狀態(tài)。而且如果這個行為發(fā)生得足夠快,則可能會導(dǎo)致整個選舉過程都被重置掉)。我們針對算法進行了多次調(diào)整,但是每次調(diào)整之后都會有新的問題。最終我們認(rèn)為隨機重試的方法是更加明顯和易于理解的。

    ?

    5.3 日志復(fù)制

    一旦一個Leader被選舉出來,就開始為客戶端提供服務(wù)。客戶端的每一個請求都包含一條被復(fù)制狀態(tài)機執(zhí)行的指令。Leader把這條指令作為一條新的日志條目附加到日志中去,然后并行的發(fā)起附加條目 RPCs 給其的服務(wù)器,讓們復(fù)制這條日志條目。當(dāng)這條日志條目被安全的復(fù)制(下面會介紹),Leader會應(yīng)用這條日志條目到它的狀態(tài)機中然后把執(zhí)行的結(jié)果返回給客戶端。如果Follower崩潰或者運行緩慢,再或者網(wǎng)絡(luò)丟包,Leader會不斷的重復(fù)嘗試附加日志條目 RPCs (盡管已經(jīng)回復(fù)了客戶端)直到所有的Follower都最終存儲了所有的日志條目。

    圖6:日志由有序序號標(biāo)記的條目組成。每個條目都包含創(chuàng)建時的任期號(圖中框中的數(shù)字),和一個狀態(tài)機需要執(zhí)行的指令。一個條目當(dāng)可以安全的被應(yīng)用到狀態(tài)機中去的時候,就認(rèn)為是可以提交了。

    日志以圖 6 展示的方式組織。每一個日志條目存儲一條狀態(tài)機指令和從Leader收到這條指令時的任期號。日志中的任期號用來檢查是否出現(xiàn)不一致的情況,同時也用來保證圖 3 中的某些性質(zhì)。每一條日志條目同時也都有一個整數(shù)索引值來表明它在日志中的位置。

    Leader來決定什么時候把日志條目應(yīng)用到狀態(tài)機中是安全的;這種日志條目被稱為已提交Raft算法保證所有已提交的日志條目都是持久化的并且最終會被所有可用的狀態(tài)機執(zhí)行。Leader將創(chuàng)建的日志條目復(fù)制到大多數(shù)的服務(wù)器上的時候,日志條目就會被提交(例如在圖 6 中的條目 7)。同時,Leader的日志中之前的所有日志條目也都會被提交,包括由其它Leader創(chuàng)建的條目。5.4 節(jié)會討論某些當(dāng)在Leader改變之后應(yīng)用這條規(guī)則的隱晦內(nèi)容,同時也展示了這種提交的定義是安全的。Leader跟蹤了最大的將會被提交的日志項的索引,并且索引值會被包含在未來的所有附加日志 RPCs (包括心跳包),這樣其的服務(wù)器才能最終知道Leader的提交位置。一旦Follower知道一條日志條目已經(jīng)被提交,那么也會將這個日志條目應(yīng)用到本地的狀態(tài)機中(按照日志的順序)。

    我們設(shè)計了Raft的日志機制來維護一個不同服務(wù)器的日志之間的高層次的一致性。這么做不僅簡化了系統(tǒng)的行為也使得更加可預(yù)計,同時也是安全性保證的一個重要組件。Raft維護著以下的特性,這些同時也組成了圖 3 中的日志匹配特性:

  • 如果在不同的日志中的兩個條目擁有相同的索引和任期號,那么們存儲了相同的指令。
  • 如果在不同的日志中的兩個條目擁有相同的索引和任期號,那么們之前的所有日志條目也全部相同。
  • 第一個特性來自這樣的一個事實,Leader最多在一個任期里在指定的一個日志索引位置創(chuàng)建一條日志條目,同時日志條目在日志中的位置也從來不會改變。第二個特性由附加日志 RPC 的一個簡單的一致性檢查所保證。在發(fā)送附加日志 RPC 的時候,Leader會把新的日志條目緊接著之前的條目的索引位置和任期號包含在里面。如果Follower在它的日志中找不到包含相同索引位置和任期號的條目,那么就會拒絕接收新的日志條目。一致性檢查就像一個歸納步驟:一開始空的日志狀態(tài)肯定是滿足日志匹配特性的,然后一致性檢查保護了日志匹配特性當(dāng)日志擴展的時候。因此,每當(dāng)附加日志 RPC 返回成功時,Leader就知道Follower的日志一定是和自己相同的了。

    在正常的操作中,LeaderFollower的日志保持一致性,所以附加日志 RPC 的一致性檢查從來不會失敗。然而,Leader崩潰的情況會使得日志處于不一致的狀態(tài)(老的Leader可能還沒有完全復(fù)制所有的日志條目)。這種不一致問題會在LeaderFollower的一系列崩潰下加劇。圖 7 展示了Follower的日志可能和新的Leader不同的方式。Follower可能會丟失一些在新的Leader中有的日志條目,也可能擁有一些Leader沒有的日志條目,或者兩者都發(fā)生。丟失或者多出日志條目可能會持續(xù)多個任期。

    圖7:當(dāng)一個Leader成功當(dāng)選時,Follower可能是任何情況(a-f)。每一個盒子表示是一個日志條目;里面的數(shù)字表示任期號。Follower可能會缺少一些日志條目(a-b),可能會有一些未被提交的日志條目(c-d),或者兩種情況都存在(e-f)。例如,場景 f 可能會這樣發(fā)生,某服務(wù)器在任期 2 的時候是Leader,已附加了一些日志條目到自己的日志中,但在提交之前就崩潰了;很快這個機器就被重啟了,在任期 3 重新被選為Leader,并且又增加了一些日志條目到自己的日志中;在任期 2 和任期 3 的日志被提交之前,這個服務(wù)器又宕機了,并且在接下來的幾個任期里一直處于宕機狀態(tài)。

    Raft算法中,Leader處理不一致是通過強制Follower直接復(fù)制自己的日志來解決了。這意味著在Follower中的沖突的日志條目會被Leader的日志覆蓋。5.4 節(jié)會闡述如何通過增加一些限制來使得這樣的操作是安全的。

    要使得Follower的日志進入和自己一致的狀態(tài),Leader必須找到最后兩者達成一致的地方,然后刪除從那個點之后的所有日志條目,發(fā)送自己的日志給Follower。所有的這些操作都在進行附加日志 RPCs 的一致性檢查時完成。Leader針對每一個Follower維護了一個 nextIndex這表示下一個需要發(fā)送給Follower的日志條目的索引地址。當(dāng)一個Leader剛獲得權(quán)力的時候,初始化所有的 nextIndex 值為自己的最后一條日志的index加1(圖 7 中的 11)。如果一個Follower的日志和Leader不一致,那么在下一次的附加日志 RPC 時的一致性檢查就會失敗。在被Follower拒絕之后,Leader就會減小 nextIndex 值并進行重試。最終 nextIndex 會在某個位置使得LeaderFollower的日志達成一致。當(dāng)這種情況發(fā)生,附加日志 RPC 就會成功,這時就會把Follower沖突的日志條目全部刪除并且加上Leader的日志。一旦附加日志 RPC 成功,那么Follower的日志就會和Leader保持一致,并且在接下來的任期里一直繼續(xù)保持。

    如果需要的話,算法可以通過減少被拒絕的附加日志 RPCs 的次數(shù)來優(yōu)化。例如,當(dāng)附加日志 RPC 的請求被拒絕的時候,Follower可以包含沖突的條目的任期號和自己存儲的那個任期的最早的索引地址。借助這些信息,Leader可以減小 nextIndex 越過所有那個任期沖突的所有日志條目;這樣就變成每個任期需要一次附加條目 RPC 而不是每個條目一次。在實踐中,我們十分懷疑這種優(yōu)化是否是必要的,因為失敗是很少發(fā)生的并且也不大可能會有這么多不一致的日志。

    通過這種機制,Leader在獲得權(quán)力的時候就不需要任何特殊的操作來恢復(fù)一致性。只需要進行正常的操作,然后日志就能自動的在回復(fù)附加日志 RPC 的一致性檢查失敗的時候自動趨于一致。Leader從來不會覆蓋或者刪除自己的日志(圖 3 的Leader只附加特性)。

    日志復(fù)制機制展示出了第 2 節(jié)中形容的一致性特性:Raft能夠接受,復(fù)制并應(yīng)用新的日志條目只要大部分的機器是工作的;在通常的情況下,新的日志條目可以在一次 RPC 中被復(fù)制給集群中的大多數(shù)機器;并且單個的緩慢的Follower不會影響整體的性能。

    ?

    5.4 安全性

    前面的章節(jié)里描述了Raft算法是如何選舉和復(fù)制日志的。然而,到目前為止描述的機制并不能充分的保證每一個狀態(tài)機會按照相同的順序執(zhí)行相同的指令。例如,一個Follower可能會進入不可用狀態(tài)同時Leader已經(jīng)提交了若干的日志條目,然后這個Follower可能會被選舉為Leader并且覆蓋這些日志條目;因此,不同的狀態(tài)機可能會執(zhí)行不同的指令序列。

    這一節(jié)通過在領(lǐng)導(dǎo)選舉的時候增加一些限制來完善Raft算法。這一限制保證了任何的Leader對于給定的任期號,都擁有了之前任期的所有被提交的日志條目(圖 3 中的Leader完整特性)。增加這一選舉時的限制,我們對于提交時的規(guī)則也更加清晰。最終,我們將展示對于Leader完整特性的簡要證明,并且說明Leader完整性特性是如何引導(dǎo)復(fù)制狀態(tài)機做出正確行為的。

    ?

    5.4.1 選舉限制

    在任何基于Leader的一致性算法中,Leader都必須存儲所有已經(jīng)提交的日志條目。在某些一致性算法中,例如 Viewstamped Replication,某個節(jié)點即使是一開始并沒有包含所有已經(jīng)提交的日志條目,它也能被選為領(lǐng)導(dǎo)者。這些算法都包含一些額外的機制來識別丟失的日志條目并把們傳送給新的Leader,要么是在選舉階段要么在之后很快進行。不幸的是,這種方法會導(dǎo)致相當(dāng)大的額外的機制和復(fù)雜性。Raft使用了一種更加簡單的方法,它可以保證所有之前的任期號中已經(jīng)提交的日志條目在選舉的時候都會出現(xiàn)在新的Leader中,不需要傳送這些日志條目給Leader。這意味著日志條目的傳送是單向的,只從Leader傳給Follower,并且Leader從不會覆蓋自身本地日志中已經(jīng)存在的條目。

    Raft使用投票的方式來阻止一個候選人贏得選舉除非這個候選人包含了所有已經(jīng)提交的日志條目。候選人為了贏得選舉必須聯(lián)系集群中的大部分節(jié)點,這意味著每一個已經(jīng)提交的日志條目在這些服務(wù)器節(jié)點中肯定存在于至少一個節(jié)點上。如果候選人的日志至少和大多數(shù)的服務(wù)器節(jié)點一樣新(這個新的定義會在下面討論),那么一定持有了所有已經(jīng)提交的日志條目。請求投票 RPC 實現(xiàn)了這樣的限制: RPC 中包含了候選人的日志信息,然后投票人會拒絕掉那些日志沒有自己新的投票請求。

    Raft通過比較兩份日志中最后一條日志條目的索引值和任期號定義誰的日志比較新。如果兩份日志最后的條目的任期號不同,那么任期號大的日志更加新。如果兩份日志最后的條目任期號相同,那么日志比較長的那個就更加新。

    ?

    5.4.2 提交之前任期內(nèi)的日志條目

    如同 5.3 節(jié)介紹的那樣,Leader知道一條當(dāng)前任期內(nèi)的日志記錄是可以被提交的,只要它被存儲到了大多數(shù)的服務(wù)器上。如果一個Leader在提交日志條目之前崩潰了,未來后續(xù)的Leader會繼續(xù)嘗試復(fù)制這條日志記錄。然而,一個Leader不能斷定一個之前任期里的日志條目被保存到大多數(shù)服務(wù)器上的時候就一定已經(jīng)提交了。圖 8 展示了一種情況,一條已經(jīng)被存儲到大多數(shù)節(jié)點上的老日志條目,也依然有可能會被未來的Leader覆蓋掉。

    圖8:如圖的時間序列展示了為什么Leader無法決定對老任期號的日志條目進行提交。在 (a) 中,S1 是領(lǐng)導(dǎo)者,部分的復(fù)制了索引位置 2 的日志條目。在 (b) 中,S1 崩潰了,然后 S5 在任期 3 里通過 S3、S4 和自己的選票贏得選舉,然后從客戶端接收了一條不一樣的日志條目放在了索引 2 處。然后到 (c),S5 又崩潰了;S1 重新啟動,選舉成功,開始復(fù)制日志。在這時,來自任期 2 的那條日志已經(jīng)被復(fù)制到了集群中的大多數(shù)機器上,但是還沒有被提交。如果 S1 在 (d) 中又崩潰了,S5 可以重新被選舉成功(通過來自 S2,S3 和 S4 的選票),然后覆蓋了們在索引 2 處的日志。反之,如果在崩潰之前,S1 把自己主導(dǎo)的新任期里產(chǎn)生的日志條目復(fù)制到了大多數(shù)機器上,就如 (e) 中那樣,那么在后面任期里面這些新的日志條目就會被提交(因為S5 就不可能選舉成功)。 這樣在同一時刻就同時保證了,之前的所有老的日志條目就會被提交。

    為了消除圖8里描述的情況,Raft永遠不會通過計算副本數(shù)目的方式去提交一個之前任期內(nèi)的日志條目。只有Leader當(dāng)前任期里的日志條目通過計算副本數(shù)目可以被提交;一旦當(dāng)前任期的日志條目以這種方式被提交,那么由于日志匹配特性,之前的日志條目也都會被間接的提交。在某些情況下,Leader可以安全的知道一個老的日志條目是否已經(jīng)被提交(例如,該條目是否存儲到所有服務(wù)器上),但是Raft為了簡化問題使用一種更加保守的方法。

    當(dāng)Leader復(fù)制之前任期里的日志時,Raft會為所有日志保留原始的任期號, 這在提交規(guī)則上產(chǎn)生了額外的復(fù)雜性。在其的一致性算法中,如果一個新的Leader要重新復(fù)制之前的任期里的日志時,它必須使用當(dāng)前新的任期號。Raft使用的方法更加容易辨別出日志,因為它可以隨著時間和日志的變化對日志維護著同一個任期編號。另外,和其的算法相比,Raft中的新Leader只需要發(fā)送更少日志條目(其算法中必須在們被提交之前發(fā)送更多的冗余日志條目來為們重新編號)。

    ?

    5.4.3 安全性論證

    在給定了完整的Raft算法之后,我們現(xiàn)在可以更加精確的討論Leader完整性特性(這一討論基于 9.2 節(jié)的安全性證明)。我們假設(shè)Leader完全性特性是不存在的,然后我們推出矛盾來。假設(shè)任期 T 的LeaderLeader?T)在任期內(nèi)提交了一條日志條目,但是這條日志條目沒有被存儲到未來某個任期的Leader的日志中。設(shè)大于 T 的最小任期 U 的Leader?U 沒有這條日志條目。

    圖9:如果 S1 (任期 T 的領(lǐng)導(dǎo)者)提交了一條新的日志在它的任期里,然后 S5 在之后的任期 U 里被選舉為Leader,然后至少會有一個機器,如 S3,既擁有來自 S1 的日志,也給 S5 投票了。

    1. 在Leader?U 選舉的時候一定沒有那條被提交的日志條目(Leader從不會刪除或者覆蓋任何條目)。

    2. Leader?T 復(fù)制這條日志條目給集群中的大多數(shù)節(jié)點,同時,LeaderU 從集群中的大多數(shù)節(jié)點贏得了選票。因此,至少有一個節(jié)點(投票者、選民)同時接受了來自LeaderT 的日志條目,并且給LeaderU 投票了,如圖 9。這個投票者是產(chǎn)生這個矛盾的關(guān)鍵。

    3. 這個投票者必須在給Leader?U 投票之前先接受了從Leader?T 發(fā)來的已經(jīng)被提交的日志條目;否則就會拒絕來自Leader?T 的附加日志請求(因為此時的任期號會比 T 大)。

    4. 投票者在給Leader?U 投票時依然保存有這條日志條目,因為任何中間的Leader都包含該日志條目(根據(jù)上述的假設(shè)),Leader從不會刪除條目,并且Follower只有在和Leader沖突的時候才會刪除條目。

    5. 投票者把自己選票投給Leader?U 時,Leader?U 的日志必須和投票者自己一樣新。這就導(dǎo)致了兩者矛盾之一。

    6. 首先,如果投票者和Leader?U 的最后一條日志的任期號相同,那么Leader?U 的日志至少和投票者一樣長,所以Leader?U 的日志一定包含所有投票者的日志。這是另一處矛盾,因為投票者包含了那條已經(jīng)被提交的日志條目,但是在上述的假設(shè)里,Leader?U 是不包含的。

    7. 除此之外,Leader?U 的最后一條日志的任期號就必須比投票人大了。此外,也比 T 大,因為投票人的最后一條日志的任期號至少和 T 一樣大(包含了來自任期 T 的已提交的日志)。創(chuàng)建了Leader?U 最后一條日志的之前Leader一定已經(jīng)包含了那條被提交的日志(根據(jù)上述假設(shè),Leader?U 是第一個不包含該日志條目的Leader)。所以,根據(jù)日志匹配特性,Leader?U 一定也包含那條被提交的日志,這里產(chǎn)生矛盾。

    8. 這里完成了矛盾。因此,所有比 T 大的Leader一定包含了所有來自 T 的已經(jīng)被提交的日志。

    9. 日志匹配原則保證了未來的Leader也同時會包含被間接提交的條目,例如圖 8 (d) 中的索引 2。

    通過Leader完全特性,我們就能證明圖 3 中的狀態(tài)機安全特性,即如果服務(wù)器已經(jīng)在某個給定的索引值應(yīng)用了日志條目到自己的狀態(tài)機里,那么其的服務(wù)器不會應(yīng)用一個不一樣的日志到同一個索引值上。在一個服務(wù)器應(yīng)用一條日志條目到自己的狀態(tài)機中時,的日志必須和Leader的日志,在該條目和之前的條目上相同,并且已經(jīng)被提交。現(xiàn)在我們來考慮在任何一個服務(wù)器應(yīng)用一個指定索引位置的日志的最小任期;日志完全特性保證擁有更高任期號的Leader會存儲相同的日志條目,所以之后的任期里應(yīng)用某個索引位置的日志條目也會是相同的值。因此,狀態(tài)機安全特性是成立的。

    最后,Raft要求服務(wù)器按照日志中索引位置順序應(yīng)用日志條目。和狀態(tài)機安全特性結(jié)合起來看,這就意味著所有的服務(wù)器會應(yīng)用相同的日志序列集到自己的狀態(tài)機中,并且是按照相同的順序。

    ?

    5.5 Follower和候選人崩潰

    到目前為止,我們都只關(guān)注了Leader崩潰的情況。Follower和候選人崩潰后的處理方式比Leader要簡單的多,并且們的處理方式是相同的。如果Follower或者候選人崩潰了,那么后續(xù)發(fā)送給們的 RPCs 都會失敗。Raft中處理這種失敗就是簡單的通過無限的重試;如果崩潰的機器重啟了,那么這些 RPC 就會完整的成功。如果一個服務(wù)器在完成了一個 RPC,但是還沒有響應(yīng)的時候崩潰了,那么在重新啟動之后就會再次收到同樣的請求。Raft的 RPCs 都是冪等的,所以這樣重試不會造成任何問題。例如一個Follower如果收到附加日志請求但是已經(jīng)包含了這一日志,那么就會直接忽略這個新的請求。

    ?

    5.6 時間和可用性

    Raft的要求之一就是安全性不能依賴時間:整個系統(tǒng)不能因為某些事件運行的比預(yù)期快一點或者慢一點就產(chǎn)生了錯誤的結(jié)果。但是,可用性(系統(tǒng)可以及時的響應(yīng)客戶端)不可避免的要依賴于時間。例如,如果消息交換比服務(wù)器故障間隔時間長,候選人將沒有足夠長的時間來贏得選舉;沒有一個穩(wěn)定的LeaderRaft將無法工作。

    Leader選舉是Raft中對時間要求最為關(guān)鍵的方面。Raft可以選舉并維持一個穩(wěn)定的Leader,只要系統(tǒng)滿足下面的時間要求:

    廣播時間(broadcastTime) ?<< ?選舉超時時間(electionTimeout) << ?平均故障間隔時間(MTBF)

    在這個不等式中,廣播時間指的是從一個服務(wù)器并行的發(fā)送 RPCs 給集群中的其服務(wù)器并接收響應(yīng)的平均時間;選舉超時時間就是在 5.2 節(jié)中介紹的選舉的超時時間限制;然后平均故障間隔時間就是對于一臺服務(wù)器而言,兩次故障之間的平均時間。廣播時間必須比選舉超時時間小一個量級,這樣Leader才能夠發(fā)送穩(wěn)定的心跳消息來阻止Follower開始進入選舉狀態(tài);通過隨機化選舉超時時間的方法,這個不等式也使得選票瓜分的情況變得不可能。選舉超時時間應(yīng)該要比平均故障間隔時間小上幾個數(shù)量級,這樣整個系統(tǒng)才能穩(wěn)定的運行。當(dāng)Leader崩潰后,整個系統(tǒng)會大約相當(dāng)于選舉超時的時間里不可用;我們希望這種情況在整個系統(tǒng)的運行中很少出現(xiàn)。

    廣播時間和平均故障間隔時間是由系統(tǒng)決定的,但是選舉超時時間是我們自己選擇的。Raft的 RPCs 需要接收方將信息持久化的保存到穩(wěn)定存儲中去,所以廣播時間大約是 0.5 毫秒到 20 毫秒,取決于存儲的技術(shù)。因此,選舉超時時間可能需要在 10 毫秒到 500 毫秒之間。大多數(shù)的服務(wù)器的平均故障間隔時間都在幾個月甚至更長,很容易滿足時間的需求。

    ?

    6.?集群成員變化

    到目前為止,我們都假設(shè)集群的配置(加入到一致性算法的服務(wù)器集合)是固定不變的。但是在實踐中,偶爾是會改變集群的配置的,例如替換那些宕機的機器或者改變復(fù)制級別。盡管可以通過暫停整個集群,更新所有配置,然后重啟整個集群的方式來實現(xiàn),但是在更改的時候集群會不可用。另外,如果存在手工操作步驟,那么就會有操作失誤的風(fēng)險。為了避免這樣的問題,我們決定自動化配置改變并且將其納入到Raft一致性算法中來。

    為了讓配置修改機制能夠安全,那么在轉(zhuǎn)換的過程中不能夠存在任何時間點使得兩個Leader同時被選舉成功在同一個任期里。不幸的是,任何服務(wù)器直接從舊的配置直接轉(zhuǎn)換到新的配置的方案都是不安全的。一次性自動的轉(zhuǎn)換所有服務(wù)器是不可能的,所以在轉(zhuǎn)換期間整個集群存在劃分成兩個獨立的大多數(shù)群體的可能性(見圖 10)。

    圖10:直接從一種配置轉(zhuǎn)到新的配置是十分不安全的,因為各個機器可能在任何的時候進行轉(zhuǎn)換。在這個例子中,集群配額從 3 臺機器變成了 5 臺。不幸的是,存在這樣的一個時間點,兩個不同的Leader在同一個任期里都可以被選舉成功。一個是通過舊的配置,一個通過新的配置。

    為了保證安全性,配置更改必須使用兩階段方法。目前有很多種兩階段的實現(xiàn)。例如,有些系統(tǒng)在第一階段停掉舊的配置,所以集群就不能處理客戶端請求;然后在第二階段在啟用新的配置。Raft中,集群先切換到一個過渡的配置,我們稱之為共同一致;一旦共同一致已經(jīng)被提交了,那么系統(tǒng)就切換到新的配置上。共同一致是老配置和新配置的結(jié)合:

  • 日志條目被復(fù)制給集群中新、老配置的所有服務(wù)器。
  • 新、舊配置的服務(wù)器都可以成為Leader
  • 達成一致(針對選舉和提交)需要分別在兩種配置上獲得大多數(shù)的支持。
  • 共同一致允許獨立的服務(wù)器在不影響安全性的前提下,在不同的時間進行配置轉(zhuǎn)換過程。此外,共同一致可以讓集群在配置轉(zhuǎn)換的過程中依然響應(yīng)客戶端的請求。

    集群配置在復(fù)制日志中以特殊的日志條目來存儲和通信;圖 11 展示了配置轉(zhuǎn)換的過程。當(dāng)一個Leader接收到一個改變配置從 C-old 到 C-new 的請求,會為了共同一致存儲配置(圖中的 C-old,new),以前面描述的日志條目和副本的形式。一旦一個服務(wù)器將新的配置日志條目增加到它的日志中,就會用這個配置來做出未來所有的決定(服務(wù)器總是使用最新的配置,無論是否已經(jīng)被提交)。這意味著Leader要使用 ?C-old,new 的規(guī)則來決定日志條目 C-old,new 什么時候需要被提交。如果Leader崩潰了,被選出來的新Leader可能是使用 C-old 配置也可能是 C-old,new 配置,這取決于贏得選舉的候選人是否已經(jīng)接收到了 C-old,new 配置。在任何情況下, C-new 配置在這一時期都不會單方面的做出決定。

    一旦 C-old,new 被提交,那么無論是 C-old 還是 C-new,在沒有經(jīng)過人批準(zhǔn)的情況下都不可能做出決定,并且Leader完全特性保證了只有擁有 C-old,new 日志條目的服務(wù)器才有可能被選舉為Leader。這個時候,Leader創(chuàng)建一條關(guān)于 C-new 配置的日志條目并復(fù)制給集群就是安全的了。再者,每個服務(wù)器在見到新的配置的時候就會立即生效。當(dāng)新的配置在 C-new 的規(guī)則下被提交,舊的配置就變得無關(guān)緊要,同時不使用新的配置的服務(wù)器就可以被關(guān)閉了。如圖 11,C-old 和 C-new 沒有任何機會同時做出單方面的決定;這保證了安全性。

    圖11:一個配置切換的時間線。虛線表示已經(jīng)被創(chuàng)建但是還沒有被提交的配置日志條目,實線表示最后被提交的配置日志條目。Leader首先創(chuàng)建了 C-old,new 的配置條目在自己的日志中,并提交到 C-old,new 中(C-old 的大多數(shù)和 ?C-new 的大多數(shù))。然后創(chuàng)建 C-new 條目并提交到 C-new 中的大多數(shù)。這樣就不存在 ?C-new 和 C-old 可以同時做出決定的時間點。

    在關(guān)于重新配置還有三個問題需要提出。

    第一個問題是,新的服務(wù)器可能初始化沒有存儲任何的日志條目。當(dāng)這些服務(wù)器以這種狀態(tài)加入到集群中,那么們需要一段時間來更新追趕,這時還不能提交新的日志條目。為了避免這種可用性的間隔時間,Raft在配置更新之前使用了一種額外的階段,在這個階段,新的服務(wù)器以沒有投票權(quán)身份加入到集群中來(Leader復(fù)制日志給們,但是不考慮們是大多數(shù))。一旦新的服務(wù)器追趕上了集群中的其機器,重新配置可以像上面描述的一樣處理。

    第二個問題是,集群的Leader可能不是新配置的一員。在這種情況下,Leader就會在提交了 C-new 日志之后退位(回到Follower狀態(tài))。這意味著有這樣的一段時間,Leader管理著集群,但是不包括自己;復(fù)制日志但是不把自己算作是大多數(shù)之一。當(dāng) C-new 被提交時,會發(fā)生Leader過渡,因為這時是最早新的配置可以獨立工作的時間點(將總是能夠在 C-new 配置下選出新的Leader)。在此之前,可能只能從 C-old 中選出Leader

    第三個問題是,移除不在 C-new 中的服務(wù)器可能會擾亂集群。這些服務(wù)器將不會再接收到心跳,所以當(dāng)選舉超時,們就會進行新的選舉過程。們會發(fā)送擁有新的任期號的請求投票 RPCs,這樣會導(dǎo)致當(dāng)前的Leader回退成Follower狀態(tài)。新的Leader最終會被選出來,但是被移除的服務(wù)器將會再次超時,然后這個過程會再次重復(fù),導(dǎo)致整體可用性大幅降低。

    為了避免這個問題,當(dāng)服務(wù)器確認(rèn)當(dāng)前Leader存在時,服務(wù)器會忽略請求投票 RPCs。特別的,當(dāng)服務(wù)器在當(dāng)前最小選舉超時時間內(nèi)收到一個請求投票 RPC,不會更新當(dāng)前的任期號或者投出選票。這不會影響正常的選舉,每個服務(wù)器在開始一次選舉之前,至少等待一個最小選舉超時時間。然而,這有利于避免被移除的服務(wù)器擾亂:如果Leader能夠發(fā)送心跳給集群,那么就不會被更大的任期號廢黜。

    ?

    7.?日志壓縮

    Raft的日志在正常操作中不斷的增長,但是在實際的系統(tǒng)中,日志不能無限制的增長。隨著日志不斷增長,會占用越來越多的空間,花費越來越多的時間來重置。如果沒有一定的機制去清除日志里積累的陳舊的信息,那么會帶來可用性問題。

    快照是最簡單的壓縮方法。在快照系統(tǒng)中,整個系統(tǒng)的狀態(tài)都以快照的形式寫入到穩(wěn)定的持久化存儲中,然后到那個時間點之前的日志全部丟棄。快照技術(shù)被使用在 Chubby 和 ZooKeeper 中,接下來的章節(jié)會介紹Raft中的快照技術(shù)。

    增量壓縮的方法,例如日志清理或者日志結(jié)構(gòu)合并樹,都是可行的。這些方法每次只對一小部分?jǐn)?shù)據(jù)進行操作,這樣就分散了壓縮的負(fù)載壓力。首先,們先選擇一個已經(jīng)積累的大量已經(jīng)被刪除或者被覆蓋對象的區(qū)域,然后重寫那個區(qū)域還活躍的對象,之后釋放那個區(qū)域。和簡單操作整個數(shù)據(jù)集合的快照相比,需要增加復(fù)雜的機制來實現(xiàn)。狀態(tài)機可以實現(xiàn) LSM tree 使用和快照相同的接口,但是日志清除方法就需要修改Raft了。

    圖12:一個服務(wù)器用新的快照替換了從 1 到 5 的條目,快照值存儲了當(dāng)前的狀態(tài)。快照中包含了最后的索引位置和任期號。

    圖12展示了Raft中快照的基礎(chǔ)思想。每個服務(wù)器獨立的創(chuàng)建快照,只包括已經(jīng)被提交的日志。主要的工作包括將狀態(tài)機的狀態(tài)寫入到快照中。Raft也包含一些少量的元數(shù)據(jù)到快照中:最后被包含索引指的是被快照取代的最后的條目在日志中的索引值(狀態(tài)機最后應(yīng)用的日志),最后被包含的任期指的是該條目的任期號。保留這些數(shù)據(jù)是為了支持快照后緊接著的第一個條目的附加日志請求時的一致性檢查,因為這個條目需要前一日志條目的索引值和任期號。為了支持集群成員更新(第 6 節(jié)),快照中也將最后的一次配置作為最后一個條目存下來。一旦服務(wù)器完成一次快照,就可以刪除最后索引位置之前的所有日志和快照了。

    盡管通常服務(wù)器都是獨立的創(chuàng)建快照,但是Leader必須偶爾的發(fā)送快照給一些落后的Follower。這通常發(fā)生在當(dāng)Leader已經(jīng)丟棄了下一條需要發(fā)送給Follower的日志條目的時候。幸運的是這種情況不是常規(guī)操作:一個與Leader保持同步的Follower通常都會有這個條目。然而一個運行非常緩慢的Follower或者新加入集群的服務(wù)器(第 6 節(jié))將不會有這個條目。這時讓這個Follower更新到最新的狀態(tài)的方式就是通過網(wǎng)絡(luò)把快照發(fā)送給們。

    ?

    安裝快照 RPC:

    由Leader調(diào)用以將快照的分塊發(fā)送給Follower。領(lǐng)導(dǎo)者總是按順序發(fā)送分塊。

    參數(shù)解釋
    term領(lǐng)導(dǎo)人的任期號
    leaderId領(lǐng)導(dǎo)人的 Id,以便于跟隨者重定向請求
    lastIncludedIndex快照中包含的最后日志條目的索引值
    lastIncludedTerm快照中包含的最后日志條目的任期號
    offset分塊在快照中的偏移量
    data[]原始數(shù)據(jù)
    done如果這是最后一個分塊則為 true
    結(jié)果解釋
    term當(dāng)前任期號,便于領(lǐng)導(dǎo)人更新自己

    接收者實現(xiàn):

    1. 如果? term < currentTerm? 就立即回復(fù)

    2. 如果是第一個分塊(offset 為 0)就創(chuàng)建一個新的快照

    3. 在指定偏移量寫入數(shù)據(jù)

    4. 如果 done 是 false,則繼續(xù)等待更多的數(shù)據(jù)

    5. 保存快照文件,丟棄具有較小索引的任何現(xiàn)有或部分快照

    6. 如果現(xiàn)存的日志條目與快照中最后包含的日志條目具有相同的索引值和任期號,則保留其后的日志條目并進行回復(fù)

    7. 丟棄整個日志

    8. 使用快照重置狀態(tài)機(并加載快照的集群配置)

    圖13:一個關(guān)于安裝快照的簡要概述。為了便于傳輸,快照都是被分成分塊的;每個分塊都給了Follower生命的跡象,所以Follower可以重置選舉超時計時器。

    在這種情況下Leader使用一種叫做安裝快照的新的 RPC 來發(fā)送快照給太落后的Follower;見圖 13。當(dāng)Follower通過這種 RPC 接收到快照時,必須自己決定對于已經(jīng)存在的日志該如何處理。通常快照會包含沒有在接收者日志中存在的信息。在這種情況下,Follower丟棄其整個日志;它全部被快照取代,并且可能包含與快照沖突的未提交條目。如果接收到的快照是自己日志的前面部分(由于網(wǎng)絡(luò)重傳或者錯誤),那么被快照包含的條目將會被全部刪除,但是快照后面的條目仍然有效,必須保留。

    這種快照的方式背離了Raft的強Leader原則,因為Follower可以在不知道Leader情況下創(chuàng)建快照。但是我們認(rèn)為這種背離是值得的。Leader的存在,是為了解決在達成一致性的時候的沖突,但是在創(chuàng)建快照的時候,一致性已經(jīng)達成,這時不存在沖突了,所以沒有Leader也是可以的。數(shù)據(jù)依然是從Leader傳給Follower,只是Follower可以重新組織們的數(shù)據(jù)了。

    我們考慮過一種替代的基于Leader的快照方案,即只有Leader創(chuàng)建快照,然后發(fā)送給所有的Follower。但是這樣做有兩個缺點。第一,發(fā)送快照會浪費網(wǎng)絡(luò)帶寬并且延緩了快照處理的時間。每個Follower都已經(jīng)擁有了所有產(chǎn)生快照需要的信息,而且很顯然,自己從本地的狀態(tài)中創(chuàng)建快照比通過網(wǎng)絡(luò)接收別人發(fā)來的要經(jīng)濟。第二,Leader的實現(xiàn)會更加復(fù)雜。例如,Leader需要發(fā)送快照的同時并行的將新的日志條目發(fā)送給Follower,這樣才不會阻塞新的客戶端請求。

    還有兩個問題影響了快照的性能。首先,服務(wù)器必須決定什么時候應(yīng)該創(chuàng)建快照。如果快照創(chuàng)建的過于頻繁,那么就會浪費大量的磁盤帶寬和其資源;如果創(chuàng)建快照頻率太低,就要承受耗盡存儲容量的風(fēng)險,同時也增加了從日志重建的時間。一個簡單的策略就是當(dāng)日志大小達到一個固定大小的時候就創(chuàng)建一次快照。如果這個閾值設(shè)置的顯著大于期望的快照的大小,那么快照對磁盤壓力的影響就會很小了。

    第二個影響性能的問題就是寫入快照需要花費顯著的一段時間,并且我們還不希望影響到正常操作。解決方案是通過寫時復(fù)制的技術(shù),這樣新的更新就可以被接收而不影響到快照。例如,具有函數(shù)式數(shù)據(jù)結(jié)構(gòu)的狀態(tài)機天然支持這樣的功能。另外,操作系統(tǒng)的寫時復(fù)制技術(shù)的支持(如 Linux 上的 fork)可以被用來創(chuàng)建完整的狀態(tài)機的內(nèi)存快照(我們的實現(xiàn)就是這樣的)。

    ?

    8.?客戶端交互

    這一節(jié)將介紹客戶端是如何和Raft進行交互的,包括客戶端如何發(fā)現(xiàn)LeaderRaft是如何支持線性化語義的。這些問題對于所有基于一致性的系統(tǒng)都存在,并且Raft的解決方案和其的也差不多。

    Raft中的客戶端發(fā)送所有請求給Leader當(dāng)客戶端啟動的時候,會隨機挑選一個服務(wù)器進行通信。如果客戶端第一次挑選的服務(wù)器不是Leader,那么那個服務(wù)器會拒絕客戶端的請求并且提供最近接收到的Leader的信息(附加條目請求包含了Leader的網(wǎng)絡(luò)地址)。如果Leader已經(jīng)崩潰了,那么客戶端的請求就會超時;客戶端之后會再次重試隨機挑選服務(wù)器的過程。

    我們Raft的目標(biāo)是要實現(xiàn)線性化語義(每一次操作立即執(zhí)行,只執(zhí)行一次,在調(diào)用和收到回復(fù)之間)。但是,如上述,Raft是可以執(zhí)行同一條命令多次的:例如,如果Leader在提交了這條日志之后,但是在響應(yīng)客戶端之前崩潰了,那么客戶端會和新的Leader重試這條指令,導(dǎo)致這條命令就被再次執(zhí)行了。解決方案就是客戶端對于每一條指令都賦予一個唯一的序列號。然后,狀態(tài)機跟蹤每條指令最新的序列號和相應(yīng)的響應(yīng)。如果接收到一條指令,它的序列號已經(jīng)被執(zhí)行了,那么就立即返回結(jié)果,而不重新執(zhí)行指令。

    只讀的操作可以直接處理而不需要記錄日志。但是,在不增加任何限制的情況下,這么做可能會冒著返回臟數(shù)據(jù)的風(fēng)險,因為Leader響應(yīng)客戶端請求時可能已經(jīng)被新的Leader作廢了,但是還不知道。線性化的讀操作必須不能返回臟數(shù)據(jù),Raft需要使用兩個額外的措施在不使用日志的情況下保證這一點。首先,Leader必須有關(guān)于被提交日志的最新信息。Leader完全特性保證了Leader一定擁有所有已經(jīng)被提交的日志條目,但是在任期開始的時候,可能不知道哪些是已經(jīng)被提交的。為了知道這些信息,需要在的任期里提交一條日志條目。Raft中通過Leader在任期開始的時候提交一個空白的沒有任何操作的日志條目到日志中去來實現(xiàn)。第二,Leader在處理只讀的請求之前必須檢查自己是否已經(jīng)被廢了(如果一個更新的Leader被選舉出來,的信息可能已經(jīng)變臟了)。Raft中通過讓Leader在響應(yīng)只讀請求之前,先和集群中的大多數(shù)節(jié)點交換一次心跳信息來處理這個問題。可選的,Leader可以依賴心跳機制來實現(xiàn)一種租約的機制,但是這種方法依賴時間來保證安全性(假設(shè)時間誤差是有界的)。

    ?

    9.?算法實現(xiàn)和評估

    我們已經(jīng)為 RAMCloud 實現(xiàn)了Raft算法作為存儲配置信息的復(fù)制狀態(tài)機的一部分,并且?guī)椭?RAMCloud 協(xié)調(diào)故障轉(zhuǎn)移。這個Raft實現(xiàn)包含大約 2000 行 C++ 代碼,其中不包括測試、注釋和空行。這些代碼是開源的。同時也有大約 25 個其獨立的第三方的基于這篇論文草稿的開源實現(xiàn),針對不同的開發(fā)場景。同時,很多公司已經(jīng)部署了基于Raft的系統(tǒng)。這一節(jié)會從三個方面來評估Raft算法:可理解性、正確性和性能。

    ?

    9.1 可理解性

    為了和 Paxos比較Raft算法的可理解能力,我們針對高層次的本科生和研究生,在斯坦福大學(xué)的高級操作系統(tǒng)課程和加州大學(xué)伯克利分校的分布式計算課程上,進行了一次學(xué)習(xí)的實驗。我們分別拍了針對RaftPaxos的視頻課程,并準(zhǔn)備了相應(yīng)的小測驗。Raft的視頻講課覆蓋了這篇論文除了日志壓縮所有內(nèi)容;Paxos講課包含了足夠的資料來創(chuàng)建一個等價的復(fù)制狀態(tài)機,包括單決策 Paxos,多決策 Paxos,重新配置和一些實際系統(tǒng)需要的性能優(yōu)化(例如Leader選舉)。小測驗測試一些對算法的基本理解和解釋一些邊角的示例。每個學(xué)生都是看完第一個視頻,回答相應(yīng)的測試,再看第二個視頻,回答相應(yīng)的測試。大約有一半的學(xué)生先進行 Paxos部分,然后另一半先進行Raft部分,這是為了說明兩者從第一部分的算法學(xué)習(xí)中獲得的表現(xiàn)和經(jīng)驗的差異。我們計算參加人員的每一個小測驗的得分來看參與者是否在Raft算法上更加容易理解。

    我們盡可能的使得 PaxosRaft的比較更加公平。這個實驗偏愛 Paxos表現(xiàn)在兩個方面:43 個參加者中有 15 個人在之前有一些 ?Paxos的經(jīng)驗,并且 Paxos的視頻要長 14%。如表格 1 總結(jié)的那樣,我們采取了一些措施來減輕這種潛在的偏見。我們所有的材料都可供審查。

    關(guān)心緩和偏見采取的手段可供查看的材料
    相同的講課質(zhì)量兩者使用同一個講師。Paxos 使用的是現(xiàn)在很多大學(xué)里經(jīng)常使用的。Paxos 會長 14%。視頻
    相同的測驗難度問題以難度分組,在兩個測驗里成對出現(xiàn)。小測驗
    公平評分使用紅字標(biāo)題。隨機順序打分,兩個測驗交替進行。紅字標(biāo)題

    表1:考慮到可能會存在的偏見,對于每種情況的解決方法,和相應(yīng)的材料。

    參加者平均在Raft的測驗中比 Paxos高 4.9 分(總分 60,那么Raft的平均得分是 25.7,而 Paxos是 20.8);圖 14 展示了每個參與者的得分。配置t-檢驗(又稱student‘s t-test)表明,在 95% 的可信度下,真實的Raft分?jǐn)?shù)分布至少比 Paxos高 2.5 分。

    圖14:一個散點圖表示了 43 個學(xué)生在 PaxosRaft的小測驗中的成績。在對角線之上的點表示在Raft獲得了更高分?jǐn)?shù)的學(xué)生。

    我們也建立了一個線性回歸模型來預(yù)測一個新的學(xué)生的測驗成績,基于以下三個因素:它們使用的是哪個小測驗,之前對 Paxos的經(jīng)驗,和學(xué)習(xí)算法的順序。模型預(yù)測,對小測驗的選擇會產(chǎn)生 12.5 分的差別。這顯著的高于之前的 4.9 分,因為很多學(xué)生在之前都已經(jīng)有了對于 Paxos的經(jīng)驗,這相當(dāng)明顯的幫助 Paxos,對Raft就沒什么太大影響了。但是奇怪的是,模型預(yù)測對于先進行 Paxos小測驗的人而言,Raft的得分低了6.3分; 雖然我們不知道為什么,這似乎在統(tǒng)計上是有意義的。

    我們同時也在測驗之后調(diào)查了參與者,們認(rèn)為哪個算法更加容易實現(xiàn)和解釋;這個的結(jié)果在圖 15 上。壓倒性的結(jié)果表明Raft算法更加容易實現(xiàn)和解釋(41 人中的 33個)。但是,這種自己報告的結(jié)果不如參與者的成績更加可信,并且參與者可能因為我們的Raft更加易于理解的假說而產(chǎn)生偏見。

    圖15:通過一個 5 分制的問題,參與者(左邊)被問哪個算法它們覺得在一個高效正確的系統(tǒng)里更容易實現(xiàn),右邊被問哪個更容易向?qū)W生解釋。

    關(guān)于Raft用戶學(xué)習(xí)有一個更加詳細的討論。

    ?

    9.2 正確性

    在第 5 節(jié),我們已經(jīng)制定了正式的規(guī)范,和對一致性機制的安全性證明。這個正式規(guī)范使用 TLA+ 規(guī)范語言使圖 2 中總結(jié)的信息非常清晰。它長約400行,并作為證明的主題。同時對于任何想實現(xiàn)Raft的人也是十分有用的。我們通過 TLA 證明系統(tǒng)非常機械的證明了日志完全特性。然而,這個證明依賴的約束前提還沒有被機械證明(例如,我們還沒有證明規(guī)范的類型安全)。而且,我們已經(jīng)寫了一個非正式的證明關(guān)于狀態(tài)機安全性是完備的,并且是相當(dāng)清晰的(大約 3500 個詞)。

    ?

    9.3 性能

    Raft和其一致性算法例如 Paxos有著差不多的性能。在性能方面,最重要的關(guān)注點是,當(dāng)Leader被選舉成功時,什么時候復(fù)制新的日志條目。Raft通過很少數(shù)量的消息包(一輪從Leader到集群大多數(shù)機器的消息)就達成了這個目的。同時,進一步提升Raft的性能也是可行的。例如,很容易通過支持批量操作和管道操作來提高吞吐量和降低延遲。對于其一致性算法已經(jīng)提出過很多性能優(yōu)化方案;其中有很多也可以應(yīng)用到Raft中來,但是我們暫時把這個問題放到未來的工作中去。

    我們使用我們自己的Raft實現(xiàn)來衡量RaftLeader選舉的性能并且回答兩個問題。首先,Leader選舉的過程收斂是否快速?第二,在Leader宕機之后,最小的系統(tǒng)宕機時間是多久?

    圖16:發(fā)現(xiàn)并替換一個已經(jīng)崩潰的Leader的時間。上面的圖考察了在選舉超時時間上的隨機化程度,下面的圖考察了最小選舉超時時間。每條線代表了 1000 次實驗(除了 150-150 毫秒只試了 100 次),和相應(yīng)的確定的選舉超時時間。例如,150-155 毫秒意思是,選舉超時時間從這個區(qū)間范圍內(nèi)隨機選擇并確定下來。這個實驗在一個擁有 5 個節(jié)點的集群上進行,其廣播時延大約是 15 毫秒。對于 9 個節(jié)點的集群,結(jié)果也差不多。

    為了衡量Leader選舉,我們反復(fù)的使一個擁有五個節(jié)點的服務(wù)器集群的Leader宕機,并計算需要多久才能發(fā)現(xiàn)Leader已經(jīng)宕機并選出一個新的Leader(見圖 16)。為了構(gòu)建一個最壞的場景,在每一的嘗試?yán)?#xff0c;服務(wù)器都有不同長度的日志,意味著有些候選人是沒有成為Leader的資格的。另外,為了促成選票瓜分的情況,我們的測試腳本在終止Leader之前同步的發(fā)送了一次心跳廣播(這大約和Leader在崩潰前復(fù)制一個新的日志給其機器很像)。Leader均勻的隨機的在心跳間隔里宕機,也就是最小選舉超時時間的一半。因此,最小宕機時間大約就是最小選舉超時時間的一半。

    圖 16 中上面的圖表明,只需要在選舉超時時間上使用很少的隨機化就可以大大避免選票被瓜分的情況。在沒有隨機化的情況下,在我們的測試?yán)?#xff0c;選舉過程往往都需要花費超過 10 秒鐘由于太多的選票瓜分的情況。僅僅增加 5 毫秒的隨機化時間,就大大的改善了選舉過程,現(xiàn)在平均的宕機時間只有 287 毫秒。增加更多的隨機化時間可以大大改善最壞情況:通過增加 50 毫秒的隨機化時間,最壞的完成情況(1000 次嘗試)只要 513 毫秒。

    圖 16 中下面的圖顯示,通過減少選舉超時時間可以減少系統(tǒng)的宕機時間。在選舉超時時間為 12-24 毫秒的情況下,只需要平均 35 毫秒就可以選舉出新的Leader(最長的一次花費了 152 毫秒)。然而,進一步降低選舉超時時間的話就會違反Raft的時間不等式需求:在選舉新Leader之前,Leader就很難發(fā)送完心跳包。這會導(dǎo)致沒有意義的Leader改變并降低了系統(tǒng)整體的可用性。我們建議使用更為保守的選舉超時時間,比如 150-300 毫秒;這樣的時間不大可能導(dǎo)致沒有意義的Leader改變,而且依然提供不錯的可用性。

    ?

    10.?相關(guān)工作

    已經(jīng)有很多關(guān)于一致性算法的工作被發(fā)表出來,其中很多都可以歸到下面的類別中:

  • Lamport 關(guān)于 Paxos的原始描述,和嘗試描述的更清晰。
  • 關(guān)于 Paxos的更詳盡的描述,補充遺漏的細節(jié)并修改算法,使得可以提供更加容易的實現(xiàn)基礎(chǔ)。
  • 實現(xiàn)一致性算法的系統(tǒng),例如 Chubby,ZooKeeper 和 Spanner。對于 Chubby 和 Spanner 的算法并沒有公開發(fā)表其技術(shù)細節(jié),盡管們都聲稱是基于 Paxos的。ZooKeeper 的算法細節(jié)已經(jīng)發(fā)表,但是和 Paxos著實有著很大的差別。
  • Paxos可以應(yīng)用的性能優(yōu)化。
  • Oki 和 Liskov 的 Viewstamped Replication(VR),一種和 Paxos差不多的替代算法。原始的算法描述和分布式傳輸協(xié)議耦合在了一起,但是核心的一致性算法在最近的更新里被分離了出來。VR 使用了一種基于Leader的方法,和Raft有很多相似之處。
  • Raft和 Paxos最大的不同之處就在于Raft的強領(lǐng)導(dǎo)特性:Raft使用Leader選舉作為一致性協(xié)議里必不可少的部分,并且將盡可能多的功能集中到了Leader身上。這樣就可以使得算法更加容易理解。例如,在 Paxos中,Leader選舉和基本的一致性協(xié)議是正交的:Leader選舉僅僅是性能優(yōu)化的手段,而且不是一致性所必須要求的。但是,這樣就增加了多余的機制:Paxos同時包含了針對基本一致性要求的兩階段提交協(xié)議和針對Leader選舉的獨立的機制。相比較而言,Raft就直接將Leader選舉納入到一致性算法中,并作為兩階段一致性的第一步。這樣就減少了很多機制。

    Raft一樣,VR 和 ZooKeeper 也是基于Leader的,因此們也擁有一些Raft的優(yōu)點。但是,Raft比 VR 和 ZooKeeper 擁有更少的機制因為Raft盡可能的減少了非Leader的功能。例如,Raft中日志條目都遵循著從Leader發(fā)送給其人這一個方向:附加條目 RPC 是向外發(fā)送的。在 VR 中,日志條目的流動是雙向的(Leader可以在選舉過程中接收日志);這就導(dǎo)致了額外的機制和復(fù)雜性。根據(jù) ZooKeeper 公開的資料看,它的日志條目也是雙向傳輸?shù)?#xff0c;但是它的實現(xiàn)更像 Raft。

    和上述我們提及的其基于一致性的日志復(fù)制算法中,Raft的消息類型更少。例如,我們數(shù)了一下 VR 和 ZooKeeper 使用的用來基本一致性需要和成員改變的消息數(shù)(排除了日志壓縮和客戶端交互,因為這些都比較獨立且和算法關(guān)系不大)。VR 和 ZooKeeper 都分別定義了 10 中不同的消息類型,相對的,Raft只有 4 種消息類型(兩種 RPC 請求和對應(yīng)的響應(yīng))。Raft的消息都稍微比其算法的要信息量大,但是都很簡單。另外,VR 和 ZooKeeper 都在Leader改變時傳輸了整個日志;所以為了能夠?qū)嵺`中使用,額外的消息類型就很必要了。

    Raft的強Leader模型簡化了整個算法,但是同時也排斥了一些性能優(yōu)化的方法。例如,平等主義 Paxos(EPaxos)在某些沒有Leader的情況下可以達到很高的性能。平等主義 Paxos充分發(fā)揮了在狀態(tài)機指令中的交換性。任何服務(wù)器都可以在一輪通信下就提交指令,除非其指令同時被提出了。然而,如果指令都是并發(fā)的被提出,并且互相之間不通信溝通,那么 EPaxos就需要額外的一輪通信。因為任何服務(wù)器都可以提交指令,所以 EPaxos在服務(wù)器之間的負(fù)載均衡做的很好,并且很容易在 WAN 網(wǎng)絡(luò)環(huán)境下獲得很低的延遲。但是,Paxos上增加了非常明顯的復(fù)雜性。

    一些集群成員變換的方法已經(jīng)被提出或者在其的工作中被實現(xiàn),包括 Lamport 的原始的討論,VR 和 SMART。我們選擇使用共同一致的方法因為對一致性協(xié)議的其部分影響很小,這樣我們只需要很少的一些機制就可以實現(xiàn)成員變換。Lamport 的基于 α 的方法之所以沒有被Raft選擇是因為它假設(shè)在沒有Leader的情況下也可以達到一致性。和 VR 和 SMART 相比較,Raft的重新配置算法可以在不限制正常請求處理的情況下進行;相比較的,VR 需要停止所有的處理過程,SMART 引入了一個和 α 類似的方法,限制了請求處理的數(shù)量。Raft的方法同時也需要更少的額外機制來實現(xiàn),和 VR、SMART 比較而言。

    ?

    11.?結(jié)論

    算法的設(shè)計通常會把正確性,效率或者簡潔作為主要的目標(biāo)。盡管這些都是很有意義的目標(biāo),但是我們相信,可理解性也是一樣的重要。在開發(fā)者把算法應(yīng)用到實際的系統(tǒng)中之前,這些目標(biāo)沒有一個會被實現(xiàn),這些都會必然的偏離發(fā)表時的形式。除非開發(fā)人員對這個算法有著很深的理解并且有著直觀的感覺,否則將會對們而言很難在實現(xiàn)的時候保持原有期望的特性。

    在這篇論文中,我們嘗試解決分布式一致性問題,但是一個廣為接受但是十分令人費解的算法 Paxos已經(jīng)困擾了無數(shù)學(xué)生和開發(fā)者很多年了。我們創(chuàng)造了一種新的算法 Raft,顯而易見的比 Paxos要容易理解。我們同時也相信,Raft也可以為實際的實現(xiàn)提供堅實的基礎(chǔ)。把可理解性作為設(shè)計的目標(biāo)改變了我們設(shè)計Raft的方式;隨著設(shè)計的進展,我們發(fā)現(xiàn)自己重復(fù)使用了一些技術(shù),比如分解問題和簡化狀態(tài)空間。這些技術(shù)不僅提升了Raft的可理解性,同時也使我們堅信其正確性。

    ?

    12.?感謝

    這項研究必須感謝以下人員的支持:Ali Ghodsi,David Mazie\`res,和伯克利 CS 294-91 課程、斯坦福 CS 240 課程的學(xué)生。Scott Klemmer 幫我們設(shè)計了用戶調(diào)查,Nelson Ray 建議我們進行統(tǒng)計學(xué)的分析。在用戶調(diào)查時使用的關(guān)于 Paxos的幻燈片很大一部分是從 Lorenzo Alvisi 的幻燈片上借鑒過來的。特別的,非常感謝 DavidMazieres 和 Ezra Hoch,們找到了Raft中一些難以發(fā)現(xiàn)的漏洞。許多人提供了關(guān)于這篇論文十分有用的反饋和用戶調(diào)查材料,包括 Ed Bugnion,Michael Chan,Hugues Evrard,Daniel Giffin,Arjun Gopalan,Jon Howell,Vimalkumar Jeyakumar,Ankita Kejriwal,Aleksandar Kracun,Amit Levy,Joel Martin,Satoshi Matsushita,Oleg Pesok,David Ramos,Robbert van Renesse,Mendel Rosenblum,Nicolas Schiper,Deian Stefan,Andrew Stone,Ryan Stutsman,David Terei,Stephen Yang,Matei Zaharia 以及 24 位匿名的會議審查人員(可能有重復(fù)),并且特別感謝我們的Leader?Eddie Kohler。Werner Vogels 發(fā)了一條早期草稿鏈接的推特,給Raft帶來了極大的關(guān)注。我們的工作由 Gigascale 系統(tǒng)研究中心和 Multiscale 系統(tǒng)研究中心給予支持,這兩個研究中心由關(guān)注中心研究程序資金支持,一個是半導(dǎo)體研究公司的程序,由 STARnet 支持,一個半導(dǎo)體研究公司的程序由 MARCO 和 DARPA 支持,在國家科學(xué)基金會的 0963859 號批準(zhǔn),并且獲得了來自 Facebook,Google,Mellanox,NEC,NetApp,SAP 和 Samsung 的支持。Diego Ongaro 由 Junglee 公司,斯坦福的畢業(yè)團體支持。

    總結(jié)

    以上是生活随笔為你收集整理的Raft 论文翻译的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。