hbase filter原理_HBase应用|HBase在移动广告监测产品中的应用
1
HBase在Ad Tracking的應用
1.1
Ad Tracking的業務場景
Ad Tracking是TalkingData的移動廣告監測產品,其核心業務模型是歸因。App用戶點擊廣告之后,及隨后安裝廣告跳轉到的應用或者游戲,Ad Tracking會對這些點擊事件(用戶點擊廣告的行為)和激活事件(用戶安裝應用的行為)進行監測。
歸因需要做的是,接收到激活事件之后,通過激活事件匹配之前接收到的點擊事件,如果激活歸因到了點擊,那么這個激活事件就是點擊廣告帶來的,也就歸因到了該廣告對應的推廣活動,而推廣活動對應某個渠道,歸因到了推廣活動就歸因到了投放廣告的渠道等。后續的所有效果點事件(例如應用內的注冊、登錄等事件)也都將通過對應的激活事件找到對應的推廣活動信息。
激活和各種效果點事件的原始信息,包括對應的設備、歸因到的推廣活動等,都可以提供給Ad Tracking用戶為參考——Ad Tracking的數據導出功能。
1.2
HBase與數據導出
HBase作為一個分布式的列式存儲,擁有強悍的數據寫入能力,由于是列式存儲,隨著后期需求的增加,可以動態的增加存儲的字段,非常契合Ad Tracking的數據導出的業務場景。
通過合理的設計rowkey,HBase又能保證很快的查詢速度,用戶在Ad Tracking后臺進行數據導出之后,基本上秒級時間就能夠完成數據的下載,能夠保證很好的導出體驗。
下面將對HBase的架構原理和在Ad Tracking數據導出功能中的應用進行介紹下。
2
HBase的架構
圖:HBase的基本架構
master:
?表的操作,例如修改列族配置等
?region的分配,merge,分割
zookeeper:
?維護服務器存活、是否可訪問的狀態
?master的HA
?記錄HBase的元數據信息的存儲位置
region server:數據的寫入與查詢
hdfs:數據的存儲,region不直接跟磁盤打交道,通過hdfs實現數據的落盤和讀取
3
數據的寫入
3.1
數據的寫入過程
圖:數據的寫入概覽
WAL:write ahead log,數據首先寫入log,保證數據不丟失,該log也是保存在hdfs上
MemStore:數據進入內存,按照rowkey進行排序
HFile:MemStore中的數據到達一定量或者一定時間,創建HFile落盤
3.2
數據格式
HBase存儲的所有內容都是byte數組,所以只要能轉化成byte數組的數據都可以存儲在HBase中。
4
存儲模型
圖:HBase的存儲概念模型
表:一個表由一個或者多個列族構成
行:一個行包含多個列,列通過列族進行分類,每一行都有唯一主鍵rowkey
列族:列族包含若干列,這些列在物理上存儲在一起,所以列族內的列一般是在查詢的時候需要一起讀取。數據的屬性,例如超時時間、壓縮算法等,都需要在列族上定義
列:一個行包含多個列,多個列維護在一個或者多個列族中
單元格:列的內容保存在單元格中,如果有過更新操作,會有多個版本
5
存儲實現
圖:HBase的存儲結構
5.1
region
Table的數據以region的形式分布在所有的服務器上。region的存在是為了解決橫向擴展問題。
5.1.1
region的拆分
通過將數據均衡的分布到所有機器上,可以充分利用各個服務器的能力,提高查詢速度。隨著數據的不斷寫入,region會不斷增大,region太大會影響查詢性能,所以hbase會自動對region進行拆分。
下面是兩種常見的region的拆分策略:
ConstantSizeRegionSplitPolicy:老版本的Hbase使用的拆分策略,按照固定的大小進行拆分,默認為10G。缺點:太死板、太簡單,無論是數據寫入量大還是小,都是通過這個固定的值來判斷
IncreasingToUpperBoundRegionSplitPolicy:新版本的默認策略,這個策略能夠隨著數據增長,動態改變拆分的閾值。
5.1.2
region的merge
場景:region中大量數據被刪除,不需要開始那么多region,可以手動進行region的merge
5.2
store
一個region內部有多個store,store是列族級別的概念,一個表有三個列族,那么在一臺服務器上的region中會有三個store。
5.2.1
MemStore
每個列族/store對應一個獨立的MemStore,也就是一塊內存空間,數據寫入之后,列族的內容進入對應的MemStore,會按照rowkey進行排序,并創建類似于Btree的索引——LMS-Tree。
LMS-Tree(Log-Structured Merge Tree)
LMS樹采用的索引結構與B+Tree相同,而且通過批量存儲技術規避磁盤隨機寫入問題,因為數據過來之后,首先會在內存中進行排序,構建索引,當到達一定的量的時候,flush到磁盤中,隨著磁盤中的小文件的增多,后臺進行會自動進行合并,過多的小文件合并為一個大文件,能夠有效加快查詢速度。
圖:LMS樹的合并
flush時機:
大小達到刷寫閥值
整個RegionServer的memstore總和達到閥值
Memstore達到刷寫時間間隔
WAL的數量大于maxLogs
手動觸發flush
5.2.2
HFile
HBase的數據文件,HBase的所有數據都保存在HFile中,查詢的時候也是從HFile中進行查詢。
HFile包含多個數據塊,存儲了一個列族內的數據,以及相關的索引:
scan block:scan查詢的時候需要讀取的部分
?data block:數據KV存儲
?leaf index block:Btree的葉子節點
?bloom block:布隆過濾器
none scan block
?meta block
?intermediate index block:Btree的中間節點
load on open:HFile加載的時候,需要加載到內存的部分
?root index block:Btree的根節點
?meta index
?file info
?bloom filter metadata:布隆過濾器的索引
trailer:記錄上面各個部分的偏移量,HFile讀取的時候首先讀取該部分,然后獲取其他部分所在的位置
Hfile的compaction:
每次memstore的刷寫都會產生一個新的HFile,而HFile畢竟是存儲在硬盤上的東西,凡是讀取存儲在硬盤上的東西都涉及一個操作:尋址,如果是傳統硬盤那就是磁頭的移動尋址,這是一個很慢的動作。當HFile一多,每次讀取數據的時候尋址的動作變多,查詢速度也就變慢。所以為了防止尋址的動作過多,需要適當地減少碎片文件,后臺需要持續進行compaction操作。
compaction的分類:
小compaction:小的HFile的合并成大的
大compaction:大的最終合并成一個,注意:只有在大compaction之后,標記刪除的文檔才會真正被刪除
compaction的過程:
讀取compaction列表中的hfile
創建數據讀取的scanner
讀取hfile中的內容到一個臨時文件中
臨時文件替換compaction之前的多個hfile
6
數據查詢
6.1
查詢順序
1. 首先查找block cache:HFile的load on open部分是常駐內存的,data block是在磁盤上的,查詢的時候,定位到某個data block之后,HBase會將整個data block加載到block cache中,后續查詢的時候,先檢查是否存在block cache中,如果是,優先查詢block cache。之所以可以這么放心的使用block cache,是基于Hfile的不可變性,后續的修改和刪除操作不會直接修改HFile,而是追加新的文件,所以只要HFile還在,對應的block cache就是不變的。
2. block cache查詢不到再去查找region(memstore + hfile):通過hbase的元數據表,找到需要查詢的rowkey所在的region server,從而定位到memstore和hfile
6.2
region的查找過程
圖:region的查找過程
一個表有多個region,分布在不同機器上,需要一定的機制來確定需要查找的region
通過zk找到meta所在的sever:meta表的位置保存在zk中,meta中保存了每個region的rowkey范圍,以及region所在的位置
通過meta查詢出需要查詢的region所在的服務器
到服務器上進行查詢
客戶端會對meta信息進行緩存,加快查詢速度。
6.3
查詢API
get:查詢某個rowkey對應的列
scan:指定rowkey范圍的掃描(setStartRow, setStopRow)
filter:scan過程中,對內容進行過濾
其中指定rowkey范圍是最有效的加快查詢速度的方式,不限定rowkey的范圍則需要全表掃
7
?Ad Tracking的HBase設計
rowkey結構:分區key-pid-eventTime-spreadid-序列
分區key:應用的唯一key(隨機字符串)的hashcode / hbase的region個數
pid:應用的自增唯一主鍵
eventTime:事件的時間
spreadid:推廣活動的自增唯一主鍵
序列:隨機序列,保證上述字段相同的事件不會覆蓋寫入
Ad Tracking的hbase的rowkey是按照業務字段來設計的,相同應用的數據保存在同一個region中,查詢快,但是由于用戶的數據量不同,查詢量也不同,可能導致熱點數據,造成某臺機器負載過高,影響機群正常工作。目前Ad Tracking的HBase的各個region空間占用尚存在一定程度的不均衡,但是還能接受。
一般HBase的rowkey中或多或少的會包含業務相關的信息,完全采用隨機的rowkey,跟業務不相關,查詢的時候只能全表掃,查詢效率低。rowkey設計的關鍵就在于權衡查詢速度和數據均衡之間的關系,下面介紹幾方面rowkey的設計建議。
7.1
rowkey長度設計建議
數據的持久化文件 HFile 中是按照 KeyValue 存儲的,如果 rowkey 過長,比如超過 100 字節,1000w 行數據,光 rowkey 就要占用 100*1000w=10 億個字節,將近 1G 數據,這樣會極大影響 HFile 的存儲效率;
MemStore 將緩存部分數據到內存,如果 rowkey 字段過長,內存的有效利用率就會降低,系統不能緩存更多的數據,這樣會降低檢索效率;
目前操作系統大都是 64 位系統,內存 8 字節對齊,rowkey長度建議控制在 16 個字節(8 字節的整數倍),充分利用操作系統的最佳特性。
7.2
rowkey設計方式-加鹽
圖:rowkey設計方式-加鹽
使用固定的隨機前綴:
優點:數據均衡
缺點:因為前綴是隨機的,所以無法快速get;而scan的速度還可以
7.3
rowkey設計方式-hash
圖:rowkey設計方式-哈希
rowkey hash之后取md5的前五位:
優點:打散數據,前綴在查詢的時候能通過rowkey得到,可以很快get
缺點:相同前綴的rowkey被打散,scan變慢
7.4
rowkey設計方式-反轉
圖:rowkey設計方式-反轉
反轉一段固定長度的rowkey,或者整個反轉。上圖中三個網址屬于相同域名下的,但是如果不反轉,會完全分散到不同的region中,不利于查詢。
end
參考資料
[hbase-io-hfile-input-output](http://blog.cloudera.com/blog/2012/06/hbase-io-hfile-input-output/)
[深入理解HBase的系統架構]
(https://blog.csdn.net/Yaokai_AssultMaster/article/details/72877127)[HBase底層存儲原理]
(https://www.cnblogs.com/panpanwelcome/p/8716652.html)[HBase – 探索HFile索引機制]
(http://hbasefly.com/2016/04/03/hbase_hfile_index/)[HBase – 存儲文件HFile結構解析]
(http://hbasefly.com/2016/03/25/hbase-hfile/)
作者:TalkingData 戰鵬弘
總結
以上是生活随笔為你收集整理的hbase filter原理_HBase应用|HBase在移动广告监测产品中的应用的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 管理系统中计算机er图怎么画,er图怎么
- 下一篇: 投标文件如何制作