如何实现一个分布式 RPC 框架
遠程過程調用(Remote Procedure Call,RPC)是一個計算機通信協議。該協議允許運行于一臺計算機的程序調用另一臺計算機的子程序,而程序員無需額外地為這個交互作用編程。RPC的主要目標是讓構建分布式應用更加容易,在提供強大的遠程調用能力的同時不損失本地調用的語義的簡潔性。
趁實習前的這段業余時間,我實現了一個輕量級的分布式RPC框架,名字叫做 buddha,代碼量不大,但是麻雀雖小卻五臟俱全。本篇文章將一步步闡明buddha的設計、框架組件的拆解以及需要考慮的因素。
序列化與反序列化
在網絡中,所有的數據都將會被轉化為字節進行傳送,所以在代碼層面上,一個RPC框架需要實現特定格式的數據與字節數組之間的相互轉化。像Java已經提供了默認的序列化方式,但是如果是在高并發的場景下,使用Java原生的序列化方式可能會遇到性能瓶頸。于是,出現了許多開源的、高效的序列化框架:如Kryo、fastjson和Protobuf等。buddha目前支持Kryo和fastjson兩種序列化框架。
TCP拆包、粘包
由于TCP只關心字節流,并不知曉上層的數據格式。如果客戶端應用層一次要發送的數據過大時,TCP會將該數據進行分解傳送,因此在服務端需要進行粘包處理(由TCP來保證數據的有序性);如果客戶端一次要發送的數據量很小時,TCP并不會馬上把數據發送出去,而是將其存儲在緩沖區,當達到某個閾值的時候再發送出去,因此在服務端需要進行拆包的工作。
通過以上分析,我們了解了TCP粘包或者拆包的原因,解決這個問題的關鍵在于向數據包添加邊界信息,常用的方法有如下三個。
- 發送端給每個數據包添加包首部,首部中至少包含數據包的長度,這樣在接收端接收到數據時,通過讀取首部的長度信息得到該數據包有效數據的長度。
- 發送端將每個數據包封裝為固定長度(多余用0填充),這樣接收端在接收到數據后根據約定好的固定長度讀取每個數據包的數據。
- 使用特殊符號將每個數據包區分開來,接收端也是通過該特殊符號的劃分數據包的邊界。
buddha采用第一種方式來解決TCP拆包、粘包的問題。
BIO與NIO
BIO往往用于經典的每連接每線程模型,之所以使用多線程,是因為像accept()、read()和write()等函數都是同步阻塞的,這意味著當應用為單線程且進行IO操作時,如果線程阻塞那么該應用必然會進入掛死狀態,但是實際上此時CPU是處于空閑狀態的。開啟多線程,就可以讓CPU去為更多的線程服務,提高CPU的利用率。但是在活躍線程數較多的情況下,采用多線程模型回帶來如下幾個問題。
- 線程的創建和銷毀代價頗高,在Linux操作系統中,線程本質上就是一個進程,創建和銷毀線程屬于重量級的操作。
- 在JVM中,每個線程會占用固定大小的棧空間,而JVM的內存空間是有限的,因此如果線程數量過多那么線程本身就會占據過多的資源。
- 線程的切換成本較高,每次線程切換需要涉及上下文的保存、恢復以及用戶態和內核態的切換。如果線程數過多,那么會有較大比例的CPU時間花費在線程切換上。
使用線程池的方式解決前兩個問題,但是線程切換帶來的開銷還是存在。所以在高并發的場景下,傳統的BIO是無能為力的。而NIO的重要特點是:讀、寫、注冊和接收函數,在等待就緒階段都是非阻塞的,可以立即返回,這就允許我們不使用多線程充分利用CPU。如果一個連接不能讀寫,可以把這個事件記錄下來,然后切換到別的就緒的連接進行數據讀寫。在buddha中,Netty被用來編寫結構更加清晰的NIO程序。
服務注冊與發現
在實際應用中,RPC服務的提供者往往需要使用集群來保證服務的穩定性與可靠性。因此需要實現一個服務注冊中心,服務提供者將當前可用的服務地址信息注冊至注冊中心,而客戶端在進行遠程調用時,先通過服務注冊中心獲取當前可用的服務列表,然后獲取具體的服務提供者的地址信息(該階段可以進行負載均衡),根據地址信息向服務提供者發起調用。客戶端可以緩存可用服務列表,當注冊中心的服務列表發生變更時需要通知客戶端。同時,當服務提供者變為不可用狀態時也需要通知注冊中心服務不可用。buddha使用ZooKeeper實現服務注冊與發現功能。
代碼實現
buddha是我學習驗證RPC過程中誕生的一個輕量級分布式RPC框架,代碼放在了 GitHub。
參考
- RPC 的概念模型與實現解析
- NettyRpc
總結
以上是生活随笔為你收集整理的如何实现一个分布式 RPC 框架的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 编辑从字节码和 JVM 的角度解析 Ja
- 下一篇: spring事物配置,声明式事务管理和基