日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

以电商网站为例,谈大型分布式架构设计与优化

發布時間:2024/9/20 67 豆豆
生活随笔 收集整理的這篇文章主要介紹了 以电商网站为例,谈大型分布式架构设计与优化 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本文大綱:

1. 使用電商案例的原因

2. 電商網站需求

3. 網站初級架構

4. 系統容量估算

5. 網站架構分析

6. 網站架構優化

本文主題為電商網站架構案例,將介紹如何從電商網站的需求,到單機架構,逐步演變為常用的、可供參考的分布式架構原型。除具備功能需求外,還具備一定的高性能、高可用、可伸縮、可擴展等非功能質量需求(架構目標)。

根據實際需要,進行改造、擴展、支持千萬PV,是沒問題的。

使用電商案例的原因

?

分布式大型網站,目前看主要有幾類:

  • 大型門戶(比如網易、新浪等);

  • SNS網站(比如校內、開心網等);

  • 電商網站(比如阿里巴巴、京東商城、國美在線、汽車之家等)。

  • 大型門戶一般是新聞類信息,可以使用CDN、靜態化等方式優化。而開心網等交互性比較多,可能會引入更多的NoSQL、分布式緩存、使用高性能的通信框架等。電商網站具備以上兩類的特點,比如產品詳情可以采用CDN,靜態化,交互性高的需要采用NoSQL等技術。因此,我們采用電商網站作為案例,進行分析。

    電商網站需求

    ?

    客戶需求:

    • 建立一個全品類的電子商務網站(B2C),用戶可以在線購買商品,可以在線支付,也可以貨到付款;

    • 用戶購買時可以在線與客服溝通;

    • 用戶收到商品后,可以給商品打分和評價;

    • 目前有成熟的進銷存系統,需要與網站對接;

    • 希望能夠支持3~5年,業務的發展;

    • 預計3~5年用戶數達到1000萬;

    • 定期舉辦雙11、雙12、三八男人節等活動;

    • 其他的功能參考京東或國美在線等網站。

    客戶就是客戶,不會告訴你具體要什么,只會告訴你他想要什么,我們很多時候要引導、挖掘客戶的需求。好在提供了明確的參考網站。因此,下一步要進行大量的分析,結合行業以及參考網站,給客戶提供方案。其它的這里暫不展開。

    需求功能矩陣

    需求管理傳統的做法,會使用例圖或模塊圖(需求列表)進行需求的描述。這樣做常常忽視掉一個很重要的需求(非功能需求),因此推薦大家使用需求功能矩陣,進行需求描述。

    本電商網站的需求矩陣如下:

    以上是對電商網站需求的簡單舉例,目的是說明:

  • 需求分析的時候,要全面,大型分布式系統重點考慮非功能需求;

  • 描述一個簡單的電商需求場景,使大家對下一步的分析設計有個依據。

  • 網站初級架構

    ?

    一般網站剛開始的做法,是三臺服務器,一臺部署應用,一臺部署數據庫,一臺部署NFS文件系統。

    這是前幾年比較傳統的做法,之前見到一個網站10萬多會員,垂直服裝設計門戶,N多圖片。使用了一臺服務器部署了應用,數據庫以及圖片存儲。出現了很多性能問題。如下圖:

    但是,目前主流的網站架構已經發生了翻天覆地的變化。一般都會采用集群的方式,進行高可用設計。至少是下面這個樣子:

  • 使用集群對應用服務器進行冗余,實現高可用(負載均衡設備可與應用一塊部署);

  • 使用數據庫主備模式,實現數據備份和高可用。

  • ?

    系統容量預估

    ?

    預估步驟:

  • 注冊用戶數-日均UV量-每日的PV量-每天的并發量;

  • 峰值預估:平常量的2~3倍;

  • 根據并發量(并發,事務數),存儲容量計算系統容量。

  • 客戶需求:3~5年用戶數達到1000萬注冊用戶;

    每秒并發數預估:

  • 每天的UV為200萬(二八原則);

  • 每日每天點擊瀏覽30次;

  • PV量:200*30=6000萬;

  • 集中訪問量:24*0.2=4.8小時會有6000萬*0.8=4800萬(二八原則);

  • 每分并發量:4.8*60=288分鐘,每分鐘訪問4800/288=16.7萬(約等于);

  • 每秒并發量:16.7萬/60=2780(約等于);

  • 假設:高峰期為平常值的三倍,則每秒的并發數可以達到8340次;

  • 1毫秒=1.3次訪問。

  • 沒好好學數學后悔了吧?!(不知道以上算是否有錯誤,呵呵~~)

    服務器預估(以Tomcat服務器舉例):

  • 按一臺Web服務器,支持每秒300個并發計算。平常需要10臺服務器(約等于);[Tomcat默認配置是150]

  • 高峰期:需要30臺服務器;

  • 容量預估:70/90原則

    系統CPU一般維持在70%左右的水平,高峰期達到90%的水平,是不浪費資源,并比較穩定的。內存,IO類似。

    以上預估僅供參考,因為服務器配置,業務邏輯復雜度等都有影響。在此CPU、硬盤、網絡等不再進行評估。

    網站架構分析

    ?

    根據以上預估,有幾個問題:

    • 需要部署大量的服務器,高峰期計算,可能要部署30臺Web服務器。并且這三十臺服務器,只有秒殺,活動時才會用到,存在大量的浪費。

    • 所有的應用部署在同一臺服務器,應用之間耦合嚴重。需要進行垂直切分和水平切分。

    • 大量應用存在冗余代碼。

    • 服務器Session同步耗費大量內存和網絡帶寬。

    • 數據需要頻繁訪問數據庫,數據庫訪問壓力巨大。

    大型網站一般需要做以下架構優化(優化是架構設計時,就要考慮的,一般從架構/代碼級別解決,調優主要是簡單參數的調整,比如JVM調優;如果調優涉及大量代碼改造,就不是調優了,屬于重構):

    • 業務拆分

    • 應用集群部署(分布式部署,集群部署和負載均衡)

    • 多級緩存

    • 單點登錄(分布式Session)

    • 數據庫集群(讀寫分離,分庫分表)

    • 服務化

    • 消息隊列

    • 其它技術

    ?

    網站架構優化

    ?

    1業務拆分

    ?

    根據業務屬性進行垂直切分,劃分為產品子系統、購物子系統、支付子系統、評論子系統、客服子系統、接口子系統(對接如進銷存、短信等外部系統)。

    根據業務子系統進行等級定義,可分為核心系統和非核心系統。

    • 核心系統:產品子系統、購物子系統、支付子系統;

    • 非核心:評論子系統、客服子系統、接口子系統。

    業務拆分作用:提升為子系統可由專門的團隊和部門負責,專業的人做專業的事,解決模塊之間耦合以及擴展性問題;每個子系統單獨部署,避免集中部署導致一個應用掛了,全部應用不可用的問題。

    等級定義作用:用于流量突發時,對關鍵應用進行保護,實現優雅降級;保護關鍵應用不受到影響。

    拆分后的架構圖:

    參考部署方案2

  • 如上圖每個應用單獨部署

  • 核心系統和非核心系統組合部署

  • 2應用集群部署(分布式,集群,負載均衡)

    ?

    分布式部署:將業務拆分后的應用單獨部署,應用直接通過RPC進行遠程通信;

    集群部署:電商網站的高可用要求,每個應用至少部署兩臺服務器進行集群部署;

    負載均衡:高可用系統必須的,一般應用通過負載均衡實現高可用,分布式服務通過內置的負載均衡實現高可用,關系型數據庫通過主備方式實現高可用。

    集群部署后架構圖:

    ?

    ?

    3多級緩存

    ?

    緩存按照存放的位置一般可分為兩類本地緩存和分布式緩存。本案例采用二級緩存的方式,進行緩存的設計。一級緩存為本地緩存,二級緩存為分布式緩存。(還有頁面緩存,片段緩存等,那是更細粒度的劃分)

    一級緩存,緩存數據字典,和常用熱點數據等基本不可變/有規則變化的信息;二級緩存緩存需要的所有緩存。當一級緩存過期或不可用時,訪問二級緩存的數據。如果二級緩存也沒有,則訪問數據庫。

    緩存的比例,一般1:4,即可考慮使用緩存。(理論上是1:2即可)。

    根據業務特性可使用以下緩存過期策略:

  • 緩存自動過期

  • 緩存觸發過期

  • ?

    4單點登錄(分布式Session)

    ?

    系統分割為多個子系統,獨立部署后,不可避免地會遇到會話管理的問題。一般可采用Session同步,Cookies,分布式Session方式。電商網站一般采用分布式Session實現。

    再進一步可以根據分布式Session,建立完善的單點登錄或賬戶管理系統。

    流程說明:

  • 用戶第一次登錄時,將會話信息(用戶Id和用戶信息),比如以用戶ID為Key,寫入分布式Session;

  • 用戶再次登錄時,獲取分布式Session,是否有會話信息,如果沒有則調到登錄頁;

  • 一般采用Cache中間件實現,建議使用Redis,因此它有持久化功能,方便分布式Session宕機后,可以從持久化存儲中加載會話信息;

  • 存入會話時,可以設置會話保持的時間,比如15分鐘,超過后自動超時;

  • 結合Cache中間件,實現的分布式Session,可以很好的模擬Session會話。

    5數據庫集群(讀寫分離,分庫分表)

    ?

    大型網站需要存儲海量的數據,為達到海量數據存儲,高可用,高性能一般采用冗余的方式進行系統設計。一般有兩種方式讀寫分離和分庫分表。

    讀寫分離:一般解決讀比例遠大于寫比例的場景,可采用一主一備,一主多備或多主多備方式。

    本案例在業務拆分的基礎上,結合分庫分表和讀寫分離。如下圖:

  • 業務拆分后:每個子系統需要單獨的庫;

  • 如果單獨的庫太大,可以根據業務特性,進行再次分庫,比如商品分類庫,產品庫;

  • 分庫后,如果表中有數據量很大的,則進行分表,一般可以按照ID,時間等進行分表;(高級的用法是一致性Hash);

  • 在分庫,分表的基礎上,進行讀寫分離。

  • 相關中間件可參考Cobar(阿里,目前已不在維護),TDDL(阿里),Atlas(奇虎360),MyCat(在Cobar基礎上,國內很多牛人,號稱國內第一開源項目)。

    6服務化

    ?

    將多個子系統公用的功能/模塊,進行抽取,作為公用服務使用。比如本案例的會員子系統就可以抽取為公用的服務。

    ?

    ?

    7消息隊列

    ?

    消息隊列可以解決子系統/模塊之間的耦合,實現異步,高可用,高性能的系統,是分布式系統的標準配置。本案例中,消息隊列主要應用在購物,配送環節。

  • 用戶下單后,寫入消息隊列,后直接返回客戶端;

  • 庫存子系統:讀取消息隊列信息,完成減庫存;

  • 配送子系統:讀取消息隊列信息,進行配送。

  • 目前使用較多的MQ有Active MQ、Rabbit MQ、Zero MQ、MS MQ等,需要根據具體的業務場景進行選擇。建議可以研究下RabbitMQ。

    更多詳情可參考社群過往文章:

    • RabbitMQ高級指南:從配置、使用到高可用集群搭建

    • 大話消息隊列的流派之爭

    • 一網打盡消息隊列在大型分布式系統中的實戰精髓

    • 網易蜂巢微服務架構:用RabbitMQ實現輕量級通信

    8其它架構(技術)

    ?

    除了以上介紹的業務拆分、應用集群、多級緩存、單點登錄、數據庫集群、服務化、消息隊列外。還有CDN、反向代理、分布式文件系統、大數據處理等系統。

    此處不詳細介紹,大家可以問度娘/Google,有機會的話也可以分享給大家。

    總結

    ?

    以上是本次分享的架構總結,細節可參考前面分享的內容。其中還有很多可以優化和細化的地方,因為是案例分享,主要針對重要部分做了介紹,工作中需要大家根據具體的業務場景進行架構設計。希望能對大家有所啟發。

    轉:

    ?http://mp.weixin.qq.com/s/xc2L7hqxBaOwnSAXw_kUjw

    總結

    以上是生活随笔為你收集整理的以电商网站为例,谈大型分布式架构设计与优化的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。