视频存储服务器 存储性能,面向海量高清视频数据的高性能分布式存储系统
隨著城市項目的推進, 城市視頻監控系統的規模不斷擴大, 視頻監控系統朝著“數字化、網絡化、高清化、智能化”的方向不斷前進.不斷增長的監控點設備數量、更高清的攝像頭和更長的視頻留存時間, 對視頻監控數據存儲系統提出了更高的要求.
傳統的基于IP-SAN(Internet protocol storage area network(IP存儲網絡))存儲方案通過iSCSI(Internet small computer system interface(Internet小型計算機系統接口))協議將磁盤陣列掛載給流媒體服務器做標準磁盤, 采用文件方式進行視頻數據的集中存儲.在這種模式下, 數據流要經過流媒體轉存服務器才能寫入磁盤陣列, 存在著單點故障和性能瓶頸等問題.視頻監控系統通常要求7x24小時持續運行, 面對多路視頻流的并發持續寫入, 基于通用文件系統構建的存儲系統將會產生大量的文件碎片, 導致隨著時間的推移, 存儲效率不斷下降.因此, 傳統模式不能滿足視頻監控系統規模上升時對存儲系統的高可靠性、高性能、可擴展性和易管理等方面的需求.隨著技術的發展, 分布式云存儲[變得越來越重要, 一些中等規模的視頻監控系統采用了分布式云存儲方案.
視頻監控的數據和傳統數據, 如郵件、文件、圖片、數據表等相比, 有以下特點.
(1) 數據量大.視頻監控朝著高清化方向發展, 隨著攝像頭數量的不斷增加, 一個中等規模的城市一天就能產生PB級數據量.監控視頻的保存周期為30天~90天, 視頻監控的存儲系統必須滿足視頻數據的長時間大容量存儲需求, 且要具有線性擴展的能力.
(2) 寫密集.傳統數據的讀寫符合二八定律, 即20%的時間寫數據, 80%的時間讀數據.而視頻監控數據完全相反, 寫操作幾乎占到了100%, 只有在回放和檢索視頻時才讀取視頻數據.視頻監控的存儲系統在設計和實現上需要優先考慮如何提高寫入帶寬.
(3) 碼率恒定.傳統數據的碼率比較隨機, 而視頻監控數據的碼率比較恒定, 因為監控視頻的分辨率和格式一般不會發生變化.
(4) 7×24小時持續服務.傳統數據一般遵循訪問周期, 可在訪問量很少的情況下將系統停機下線進行維護和升級而不影響正常的商業活動.視頻監控數據不存在這樣的周期, 視頻數據流持續不間斷地涌向存儲系統, 任何升級維護操作都不能影響輸入視頻流的存儲, 必須動態地進行.
本文針對上述問題和視頻監控數據的特點, 提出一種面向海量高清視頻監控數據的高性能分布式存儲系統——DVSS(distributed video surveillance storage).本文的主要貢獻如下.
(1) 首先, 設計了一種基于RAW磁盤設備的邏輯卷結構來組織并存儲非結構化視頻數據, 將大量并發數據流隨機寫轉化成大段的連續寫, 極大地提升了磁盤寫入帶寬, 支撐大規模高清視頻流的并發寫入.
(2) 其次, 設計了兩級索引結構來管理視頻元數據.兩級索引結構設計極大地減少了狀態管理器需要管理的元數據數量, 消除了性能瓶頸, 且可實現錄像段的秒級檢索.
(3) 最后, 實現了DVSS系統原型, 并對磁盤寫入速度和支持的并發視頻路數等關鍵指標進行測試, 證明了DVSS系統的高效的存儲性能.測試結果表明, DVSS系統在單臺廉價PC服務器上能夠同時記錄400路1080P視頻流數據, 寫入速度達本地文件系統的2.5倍.
1 相關工作
針對傳統文件系統存儲方案的問題, 研究人員根據視頻監控數據的特點, 提出了直寫裸磁盤設備的流式存儲策略, 即設計一種磁盤邏輯結構, 將錄像段的數據和索引信息以此結構組織并直接寫入裸磁盤設備中[.文獻[
文獻[
2 DVSS設計與實現
視頻監控數據具有高并發、大容量、有序的特點.通用文件系統如NTFS和Ext4等并非針對視頻監控數據而設計, 傳統存儲方案以文件來組織并存儲視頻流數據, 存在以下兩個問題.
(1) 以文件方式存儲視頻流數據不能保證數據在磁盤上的存放是連續的, 同時, 在記錄多路高清視頻流時, 系統需要維護大量打開的文件描述符, 并在這些文件描述符之間來回切換.隨著系統長時間運行, 文件被頻繁地創建和刪除, 勢必產生大量的磁盤碎片, 使得在寫連續的視頻流時磁頭需要頻繁地移動, 造成磁盤訪問性能下降.
(2) 文件分片的長度決定了視頻檢索的精度:分片太小會產生海量的小文件, 造成inode號不夠用; 分片太大, 造成檢索精度不高.
2.1 DVSS系統結構
DVSS系統由一個狀態管理器(state manager)、多個存儲服務器(storage
server)和多個客戶端(client)組成.系統結構如
圖 1
Fig. 1
Fig. 1 Architecture of DVSS
圖 1 DVSS系統結構
狀態管理器主要做調度工作, 起負載均衡的作用.狀態管理器除了需要在內存中記錄集群中所有存儲組和存儲服務器的狀態信息以外, 還需要記錄錄像段的起止時間和對應的存儲組.存儲服務器采用分組的組織方式, 一個存儲組由1臺或多臺存儲服務器組成, 同組內的存儲服務器互相備份, 一個組的存儲容量由該組內存儲容量最小的存儲服務器決定, 存儲集群總容量為集群中所有組的存儲容量之和.HDFS等主流的副本實現方式通常采用動態分配的方式, 一個文件實際存儲節點位置是不確定的, 通常是3個備份.DVSS系統采用的分組存儲方式更加靈活, 可操作性更強.例如, 對于重點監控點的視頻數據, 可以由管理員指定存儲分組.當一個分組的存儲服務器訪問壓力較大時, 可以在該組添加存儲服務器來提升服務能力; 當視頻監控規模擴大時, 可以增加存儲組來擴充存儲容量, 實現系統線性擴展.存儲服務器保存視頻流數據和其索引信息.客戶端擁有全局唯一識別號(命名為SID), 通常為網絡攝像頭的IP地址.
2.2 視頻數據組織
為了提高存儲性能, 方便對視頻進行檢索和管理, DVSS采用了將視頻流和其元數據分開存儲的設計思想.元數據和視頻數據存儲在不同的磁盤驅動器上, 保證元數據的讀寫請求不會影響對視頻流數據的讀寫, 同時方便在視頻錄像段過期后對其進行空間回收.
2.2.1 視頻流數據管理
考慮到視頻流編碼格式的特點, DVSS以GOP為單位組織數據并建立索引, 提供精確到秒級的高效檢索.為了便于視頻流數據的管理, 定義如
圖 2
Fig. 2
Fig. 2 Logical volume architecture design
圖 2 邏輯卷結構設計
(1) 邏輯卷
邏輯卷將多個磁盤或磁盤分區在邏輯上聚合, 提供大小一致的存儲空間, 無需擔心不同磁盤分區大小不一致的情況, 方便實現存儲空間動態擴容.
用LVM(logical volume manager(邏輯卷管理器))創建邏輯卷之后, 按如
(2) 數據塊
數據塊是存儲空間分配和回收管理的基本單位.系統每次分配一個數據塊給某一視頻流, 并將對應的位圖bit表示置1.一個數據塊上存儲的是同一路視頻流的數據, 方便進行順序讀寫, 提高讀寫帶寬.空間回收時, 因為數據塊里的數據是按時有序的, 只要此數據塊存放的最后一個圖像數據過期就回收此數據塊.數據塊的大小一般設置為512MB, 具體的討論見第3.2節.
(3) 圖像組GOP
當前廣泛采用的視頻編解碼標準H.264/AVC將I幀、P幀、B幀組成圖像組來編碼圖像序列, 一個GOP通常存放1s的視頻數據.
DVSS利用視頻數據流的編碼特征, 以GOP為單位讀寫數據, 同一個視頻流的GOP在數據塊中連續存放, 直到數據塊剩下的空間不足以存放一個GOP為止.
2.2.2 元數據管理
為了方便實現負載均衡和精確到秒級的檢索, DVSS設計了兩級索引結構, 并使用基于內存的鍵值對數據庫Redis作為元數據管理引擎.
(1) 一級索引
一級索引存放在狀態管理器上, 用來存儲錄像段索引.如Key值, 按起始時間排序的錄像段記錄列表作為對應的Value值.由于監控視頻流本身按時有序, 所以錄像段記錄的插入也是有序的, 可以實現O(1) 的插入時間復雜度.
圖 3
Fig. 3
Fig. 3 First-Level index structure
圖 3 一級索引結構
錄像段是從客戶端發起視頻寫請求開始, 到客戶端主動停止寫入或者因為存儲服務器空間不足拒絕繼續寫入為止的一段連續視頻.
(2) 二級索引
二級索引存放在存儲服務器上, 結構上類似于一級索引, 其基本索引單元為GOP, 用于對視頻流的GOP進行描述.一個GOP的描述信息包括該GOP對應的起始時間戳、存放的邏輯卷號、對應的數據塊、塊內偏移和長度等信息.視頻流標識為Key值, 按時間戳有序的GOP描述信息列表作為對應的Value值.同樣, GOP描述信息的插入也是有序的, 可以實現O(1) 的插入時間復雜度.
2.3 視頻流上傳和檢索
2.3.1 視頻流上傳
視頻流上傳操作由客戶端主動發起, 客戶端在上傳固定時長的視頻流后結束寫操作, 再發起新的上傳操作.通常, 一個視頻段的時長為1個小時.視頻段時長太短, 會增大狀態管理器管理的元數據的負擔; 時長太長, 則不利于系統的負載均衡和動態擴容.
上傳步驟如下.
(1) 客戶端向狀態管理器發送上傳請求, 包括視頻流標識、視頻段起始時間、預計時長和碼流大小.
(2) 狀態管理器根據負載均衡策略查詢可用的存儲服務器, 在一級索引里增加一條視頻段記錄, 將分配的存儲服務器的IP地址和端口號返回給客戶端.
(3) 客戶端向分配的存儲服務器發起寫操作, 包括視頻流標識、起始時間和視頻流數據.
(4) 存儲服務器的視頻流編解碼模塊解析出GOP, 按需給此視頻流分配數據塊, 將GOP連續地寫入數據塊, 并在二級索引里增加對應的GOP描述信息記錄.
(5) 在客戶端完成此視頻段的上傳后, 存儲服務器返回狀態信息.
2.3.2 視頻流檢索
監控視頻回放以視頻流檢索為基礎, 當用戶需要查看某一段視頻時, 客戶端發起視頻流檢索操作.精確到秒級的檢索精度, 減少了不必要數據的傳輸, 極大地提高了視頻回放的效率.
檢索步驟如下.
(1) 客戶端向狀態管理器發送檢索請求, 包括視頻流標識、視頻段起始時間和回放時長.
(2) 狀態管理器以視頻流標識為Key在鍵值對數據庫中查詢對應的視頻段信息列表, 在有序的視頻段信息列表中定位對應的起始時間和時長的視頻段, 得到此視頻段的存儲服務器組編號.狀態管理器再根據存儲服務器組內的負載情況和視頻數據同步情況選擇一個可用的存儲服務器, 并返回其IP地址和端口.
(3) 客戶端向定位的存儲服務器發起數據讀請求, 包括視頻流標識, 起始時間和時長.
(4) 存儲服務器根據客戶端的讀請求, 通過二級索引找到視頻段的視頻數據存儲所在的數據塊區間, 以GOP為單位連續讀出視頻數據.
(5) 存儲服務器讀取的視頻段數據返回給客戶端.
2.4 高并發寫優化
DVSS支持大規模視頻流的高并發寫操作.狀態管理器會根據存儲服務器的負載情況, 將寫請求分配給合適的存儲服務器.對于單個存儲服務器, 在同時寫入的視頻路數較高的情況下, 因不同的視頻流寫的數據塊不同, 多視頻流高并發的寫入會導致磁頭的頻繁移動, 使得磁盤存取性能降低.
為了解決這個問題, 存儲服務器采用單線程處理多路視頻流的并發寫入, 并為每個視頻流分配一個緩沖區, 在緩沖區滿時將數據寫入到對應的數據塊.同時, 根據數據塊的分配特性, 多個視頻流的數據塊編號呈遞增關系, 對應地, 在磁盤上的物理位置也呈遞增關系, 故可對待寫入的數據按數據塊編號排隊.這種機制將無序的小段數據高并發寫入轉變成了有序的大段連續數據寫入, 在增加磁頭有效連續寫入時間的同時, 減少了磁頭的頻繁移動, 提高了磁盤存取性能, 可以支持更多的并發視頻路數.
2.5 存儲空間管理
2.5.1 空間回收
監控視頻的保存時間從1個月到3個月不等, 除了需要永久保存的錄像段外, 其他視頻數據隨著時間的推移, 其重要性逐步降低.由于磁盤存儲空間有限, 為了充分利用存儲資源, 需要對達到存儲周期的視頻數據進行空間回收.
DVSS采用循環覆蓋的回收策略.空間回收由狀態管理器控制.狀態管理器根據用戶設定的存儲周期, 周期性地刪除一級索引里的過期的錄像段記錄信息, 并通知相應的存儲服務器刪除對應的二級索引.存儲服務器刪除過期的二級索引信息, 并將對應的數據塊的位圖表示置0, 無需擦除數據塊里的實際視頻數據, 回收效率較高.
得益于數據塊的分配策略, 連續數據塊存放的視頻流數據在時間上有序, 回收的空間也是連續的.當回收的空間再次分配給數據流時, 并發寫入的數據流分得的數據塊也是連續的, 可以減少磁頭的移動.相鄰的數據塊總是被連續分配, 又被連續回收, 使存儲系統不會因為長時間運轉而導致存取性能下降.
2.5.2 擴容
為了應對攝像頭路數增加以及攝像頭分辨率提高的挑戰, 需要及時地對DVSS進行擴容.
(1) 組內擴容
同組內的多臺存儲服務器互為備份, 類似于木桶短板效應, 一個組的存儲容量為該組服務器中最小的存儲容量.擴充組內容量時, 需要給組內的每臺服務器增加相同的磁盤空間.
追加磁盤空間后, 用LVM創建新的邏輯卷, 并按邏輯卷結構格式化, 分配邏輯卷號, 與裸設備(/dev/raw/raw[N])綁定后, 即可提供服務.
(2) 系統擴容
當系統容量不足時, 可以增加存儲組組來擴展系統存儲集群的總容量.新增的存儲服務器啟動后主動向狀態管理器匯報自己的狀態, 狀態管理器對比自己內存里記錄的所有存儲服務器狀態后就會發現此存儲組是新增的, 將此存儲器組加入活動存儲服務器隊列, 負載均衡機制會將新到來的上傳視頻請求導向給新增的存儲服務器組, 此新增服務器組就開始提供服務, 正常工作, 實現了系統的動態擴容.
2.6 高可用
DVSS由成本低廉的PC服務器組成, 在降低視頻監控存儲系統成本的同時, 需要提高可靠性, 保證系統7×24小時持續服務的能力.DVSS的高可用主要體現在如下幾個方面.
(1) 狀態管理器高可用
類似于HDFS NameNode, DVSS的狀態管理器存在單點故障.在Hadoop
2.0中, HDFS NameNode單點故障問題已經解決.DVSS參照了HDFS HA[的實現, 狀態管理器由主狀態管理器和備狀態管理器構成, 主備狀態管理器共享存儲.正常情況下, 只有主狀態管理器對外提供服務.當主備切換控制器檢測到主狀態管理器故障時, 進行主備切換, 由備狀態管理器對外提供服務.當主狀態管理器恢復后, 再切換回來.狀態管理器高可用架構消除了單點故障, 可持續對外提供服務.
(2) 組內互備
一個視頻錄像段的備份個數為所在存儲服務器組內的服務器個數.DVSS分組存儲的方式可以根據視頻流的重要程度靈活控制視頻段的副本個數.將存儲服務器組按重要程度, 配置不同數量的組內服務器.狀態管理器根據視頻流標識將重要的視頻流導向到互備服務器較多的存儲組.
若一臺存儲服務器失效, 狀態管理器通過和存儲服務器之間周期性的心跳機制檢測出存儲服務器斷線, 狀態管理器會將此存儲服務器剔除服務隊列直到其重新上線.由于同一組內的服務器是對等關系, 同組的其他服務器可以繼續提供服務, 對此存儲服務器的讀數據請求, 會被分派給同組的其他存儲服務器.
(3) 斷點續傳
針對攝像頭可能出現的網絡故障問題, 前端設備需配有小容量的本地存儲, 如SD卡等.當網絡出現故障時, 視頻錄像會被存儲在本地存儲上; 在網絡恢復之后, 再將暫存在本地存儲的未上傳的視頻錄像補錄到DVSS中, 以保證不會因為網絡故障而發生數據丟失.
同時, 當DVSS系統通過周期性的心跳機制發現攝像頭斷開連接時, 需通過發送報警信息等方式通知維護人員及時處理.
3 實現與評估
3.1 測試環境
DVSS原型系統由一臺狀態管理器和40臺存儲服務器組成.存儲服務器采用Intel Xeon 2.4GHz×2 CPU, 4GB內存, 6塊1TB 15000RPM SATA Disks和Mellanox
InfiniBand QDR 40Gb/s網卡.操作系統為Ubuntu Server 14.04LTS, 鍵值對數據庫Redis采用V3.2版本.
3.2 參數測試
數據塊和緩沖區的大小將直接影響磁盤的寫性能.通過改變數據塊大小和為每路數據流分配的緩沖區大小來測試和分析這兩個參數對磁盤寫性能的影響.對單臺存儲服務器發起100路數據流并發寫入, 為了測試最大吞吐率, 不限定數據流的比特率大小.測試結果如
圖 4
Fig. 4
Fig. 4 Effect of data block and buffer size on disk write performance
圖 4 數據塊和緩沖區大小對磁盤寫性能的影響
測試數據顯示:64MB~512MB大小的數據塊, 在緩沖區大小為64KB時, 相對于32MB大小的數據塊, 寫入速度有顯著的提升.在數據塊大小為64MB~600MB時, 100路數據流并發寫入速度先隨著緩沖區大小的增大而提升, 隨后下降.對測試結果的分析如下:記數據塊大小為blocksize, 緩沖區大小為bufsize.在將bufsize大小的一路數據流寫入磁盤后, 需要調用lseek()將寫位置指向下一路數據流對應的數據塊位置, 偏移量offset為$blocksi\mathop {ze}\limits^\tilde{\ } $ bufsize.在offset比較小的情況下, 上一次write()調用結束到下一次write()調用時, 磁盤已轉過要寫的位置, 需要多轉一圈才能接著寫, 使得寫性能下降.這解釋了數據塊增大時寫性能提高的原因, 同時, 隨著bufsize的繼續增大, 使得offset減小, 寫性能也會下降.數據塊也不是越大越好, 當數據塊大小增大到600MB時, 由此帶來的尋道時間開銷使得寫性能顯著下降.
根據以上的測試結果, DVSS原型系統將數據塊和緩沖區大小分別設置為512MB和1MB.
3.3 單機性能測試
為了證明DVSS系統的視頻數據組織結構在多路視頻流高并發寫入時的性能優勢, 將50路~500路分辨率為1 080P的視頻流分別并發寫入DVSS單臺存儲服務器和Ext4文件系統中, 每一路視頻流的碼率恒定為4Mbit/s, 測得的平均寫入速度如
圖 5
Fig. 5
Fig. 5 DVSS single storage server and Ext4 performance comparison evaluation
圖 5 DVSS單臺存儲服務器與Ext4性能對比測試
當視頻路數為50和100時, 總的輸入帶寬分別為25MB/s和50MB/s, Ext4和DVSS的寫入速度和輸入總帶寬一致.但是當視頻路數為200時, 輸入帶寬為100MB/s, DVSS能夠順利地實時寫入, 而Ext4的寫入速度只有85.69MB/s, 低于輸入帶寬, 造成較大的寫入延遲.視頻路數上升到300時, 輸入總帶寬達到150MB/s, DVSS依然能夠實時地將視頻數據寫入磁盤, 而Ext4的寫入速度稍微下降到了85.05MB/s.隨著視頻路數的繼續上升, DVSS的寫入速度持續穩定增長, Ext4的寫入速度卻顯著下降.視頻路數上升, 用Ext4存儲大量并發的視頻流數據時, 系統需要維護打開的文件表項增多, 內存開銷變大, 且需要來回切換要寫入的文件描述符, 磁頭移動更加頻繁, 導致其寫入性能顯著下降.
由此可見, DVSS單臺存儲服務器的寫入速度比基于文件系統的存儲方案要穩定, 能夠支持400路分辨率為1 080P的視頻流的并發寫入.
3.4 整體性能測試
上述的實驗只測試了DVSS單臺存儲服務器在多路數據流同時寫入時的性能, 為了進一步觀察DVSS系統作為一個整體對外提供服務的能力, 需要對其進行大規模數據流并發寫入測試.將40臺存儲服務器分成20個存儲組, 每組2臺存儲服務器.我們用恒定碼流生成器(constant-bit-rate traffic generator)模擬2
000路、4 000路、6 000路、8 000路、9
000路、10 000路、11 000路、12 000路數據流, 每路數據流的比特率均為4Mbit/s.測試結果如
圖 6
Fig. 6
Fig. 6 DVSS overall performance evaluation
圖 6 DVSS整體性能測試
3.5 相關工作比較
為了說明DVSS系統的優勢, 將DVSS系統與已有工作進行對比分析, 分析結果見
表 1(Table 1)
Table 1 Comparison of DVSS with exisiting schemes
表 1 DVSS與已有工作的比較
現有/本文工作
存儲模型
容錯能力
性能瓶頸
檢索精度
寫性能
讀性能
性能描述
THNVR[
SQLite+定長文件
較弱
無
低
高
高
普通SATA硬盤上可同時記錄256路碼率為1~2Mbit/s的視頻數據
DSFS[
連續存儲模型CSM
單點故障
存在
低
高
低
單臺存儲服務器可同時記錄300路碼碼率為4Mbit/s的視頻數據
DVSS
Redis+邏輯卷結構
高可用
無
高, 秒級
高
高
單臺存儲服務器可同時記錄400路碼率為4Mbit/s的視頻數據
Table 1 Comparison of DVSS with exisiting schemes
表 1 DVSS與已有工作的比較
THNVR采用定長文件存儲視頻數據, 使用SQLite維護視頻文件的元數據.THNVR檢索精度與文件大小和視頻碼率有關, 精度較低.THNVR只有1份存儲的視頻數據, 當THNVR節點發生故障時, 與該節點連接的攝像頭的視頻數據將面臨丟失的風險, 容錯能力較弱.DSFS設計了一種連續存儲模型(CSM), 將對磁盤的隨機高并發寫轉化為順序寫, 有較高的寫性能.但CSM模型中, 同一路視頻數據存儲較為分散, 讀操作需要頻繁移動磁頭, 導致DSFS的讀性能較低.DSFS的元數據全部由MetaServer管理, 元數據量較大, 存在著性能瓶頸和單點故障問題.DVSS以GOP為單位組織視頻數據, 檢索精度能達到秒級.DVSS采用根據視頻監控數據特征設計的邏輯卷結構, 并結合多數據流并發寫入優化方法, 將無序隨機的小寫轉化成有序的大段連續寫, 提供較高的寫性能, 并且同一路視頻流的數據存儲在同一數據塊中, 能夠支持較高的讀性能.同時, DVSS針對分布式存儲的特點, 設計了元數據服務和視頻數據的可用機制, 提高了系統的容錯能力和可用性.
4 結束語
本文針對傳統基于IP-SAN視頻監控存儲系統在規模上升時難以線性擴展的問題, 提出了面向視頻監控數據的分布式視頻流直存系統DVSS.DVSS將非結構化視頻數據以GOP為單位組織直存入裸磁盤設備, 摒棄了傳統基于文件的存儲方式, 單臺存儲服務器在400路1 080P視頻流數據并發寫入時的速度達到本地文件系統的2.5倍左右.DVSS采用的兩級索引檢索結構只需要狀態管理器存儲少量的元數據, 極大地減少了狀態管理器的負擔, 消除了性能瓶頸.同時, 兩級索引結構提供了精確到秒級的檢索精度, 能夠更好地服務于上層應用.此外, DVSS靈活的存儲服務器分組方式和組內服務器互相備份的關系, 讓其能夠更好地支持視頻監控系統的擴展和容錯需求.在DVSS系統的后續工作中, 將考慮用新型存儲設備, 如SSD(solid state disk(固態盤))等作為緩存盤, 進一步提升系統對高并發高清視頻的存儲能力.另一方面, 系統將會采用糾刪碼(erasure code)技術對存儲時間超過1個月的和需要永久保存的錄像段進行離線處理, 進而用糾刪碼的技術提高設備的存儲效率.
總結
以上是生活随笔為你收集整理的视频存储服务器 存储性能,面向海量高清视频数据的高性能分布式存储系统的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: java独步寻花,小班语言《江畔独步寻花
- 下一篇: 前台系统(内容管理)