使用Blink SQL+UDAF实现差值聚合计算
本案例根據(jù)某電網(wǎng)公司的真實(shí)業(yè)務(wù)需求,通過(guò)Blink SQL+UDAF實(shí)現(xiàn)實(shí)時(shí)流上的差值聚合計(jì)算,通過(guò)本案例,讓讀者熟悉UDAF編寫,并理解UDAF中的方法調(diào)用關(guān)系和順序。
感謝@軍長(zhǎng)在實(shí)現(xiàn)過(guò)程中的指導(dǎo)。筆者水平有限,若有紕漏,請(qǐng)批評(píng)指出。
一、客戶需求
電網(wǎng)公司每天采集各個(gè)用戶的電表數(shù)據(jù)(格式如下表),其中data_date為電表數(shù)據(jù)上報(bào)時(shí)間,cons_id為電表id,r1為電表度數(shù),其他字段與計(jì)算邏輯無(wú)關(guān),可忽略。為了后續(xù)演示方便,僅輸入cons_id=100000002的數(shù)據(jù)。
| 101 | 20190716 | 100000002 | 35401 | 13.76 |
| 101 | 20190717 | 100000002 | 35401 | 14.12 |
| 101 | 20190718 | 100000002 | 35401 | 16.59 |
| 101 | 20190719 | 100000002 | 35401 | 18.89 |
表1:輸入數(shù)據(jù)
電網(wǎng)公司希望通過(guò)實(shí)時(shí)計(jì)算(Blink)對(duì)電表數(shù)據(jù)處理后,每天得到每個(gè)電表最近兩天(當(dāng)天和前一天)的差值數(shù)據(jù),結(jié)果類似如下表:
| 100000002 | 20190717 | 0.36 |
| 100000002 | 20190718 | 2.47 |
| 100000002 | 20190719 | 2.3 |
表2:期望的輸出數(shù)據(jù)
二、需求分析
根據(jù)客戶的需求,比較容易得到兩種解決方案:1、通過(guò)over窗口(2 rows over window)開(kāi)窗進(jìn)行差值聚合;2、通過(guò)hop窗口(sliding=1天,size=2天)進(jìn)行差值聚合。
over窗口和hop窗口均是Blink支持的標(biāo)準(zhǔn)窗口,使用起來(lái)非常簡(jiǎn)單。本需求的最大難點(diǎn)在于差值聚合,Blink支持SUM、MAX、MIN、AVG等內(nèi)置的聚合函數(shù),但沒(méi)有滿足業(yè)務(wù)需求的差值聚合函數(shù),因此需要通過(guò)自定義聚合函數(shù)(UDAF)來(lái)實(shí)現(xiàn)。
三、UDAF開(kāi)發(fā)
實(shí)時(shí)計(jì)算自定義函數(shù)開(kāi)發(fā)搭建環(huán)境請(qǐng)參考UDX概述,在此不再贅述。本案例使用Blink2.2.7版本,下面簡(jiǎn)要描述關(guān)鍵代碼的編寫。
完整代碼(為了方便上傳,使用了txt格式):SubtractionUdaf.txt
1、在com.alibaba.blink.sql.udx.SubtractionUdaf包中創(chuàng)建一個(gè)繼承AggregateFunction類的SubtractionUdaf類。
其中Double是UDAF輸出的類型,在本案例中為相鄰兩天的電表差值度數(shù)。SubtractionUdaf.Accum是內(nèi)部自定義的accumulator數(shù)據(jù)結(jié)構(gòu)。
2、定義accumulator數(shù)據(jù)結(jié)構(gòu),用戶保存UDAF的狀態(tài)。
3、實(shí)現(xiàn)createAccumulator方法,初始化UDAF的accumulator
//初始化udaf的accumulatorpublic SubtractionUdaf.Accum createAccumulator() {SubtractionUdaf.Accum acc = new SubtractionUdaf.Accum();acc.currentTime = 0;acc.oldDegree = 0.0;acc.newDegree = 0.0;acc.num = 0;acc.listInput = new ArrayList<Tuple2<Double, Long>>();return acc;}4、實(shí)現(xiàn)getValue方法,用于通過(guò)存放狀態(tài)的accumulator計(jì)算UDAF的結(jié)果,本案例需求是計(jì)算新舊數(shù)據(jù)兩者的差值。
public Double getValue(SubtractionUdaf.Accum accumulator) {return accumulator.newDegree - accumulator.oldDegree;}5、實(shí)現(xiàn)accumulate方法,用于根據(jù)輸入數(shù)據(jù)更新UDAF存放狀態(tài)的accumulator。考慮到數(shù)據(jù)可能亂序以及可能的retract,數(shù)據(jù)數(shù)據(jù)包括了對(duì)應(yīng)的度數(shù)iValue,還包括上報(bào)度數(shù)的時(shí)間(構(gòu)造的事件時(shí)間ts)。
public void accumulate(SubtractionUdaf.Accum accumulator, double iValue, long ts) {System.out.println("method : accumulate" );accumulator.listInput.add(Tuple2.of(Double.valueOf(iValue),Long.valueOf(ts)));Collections.sort(accumulator.listInput,this.comparator);//按照時(shí)間排序accumulator.num ++;if(accumulator.listInput.size() == 1){accumulator.newDegree = iValue;accumulator.oldDegree = 0.0;accumulator.currentTime = ts;}else {//處理可能存在的數(shù)據(jù)亂序問(wèn)題accumulator.newDegree = accumulator.listInput.get(0).f0;accumulator.currentTime = accumulator.listInput.get(0).f1;accumulator.oldDegree = accumulator.listInput.get(1).f0;}}其中accumulator為UDAF的狀態(tài),iValue和ts為實(shí)際的輸入數(shù)據(jù)。
注意需要處理可能存在的輸入數(shù)據(jù)亂序問(wèn)題。
6、實(shí)現(xiàn)retract方法,用于在某些優(yōu)化場(chǎng)景下(如使用over窗口)對(duì)retract的數(shù)據(jù)進(jìn)行處理。
需要考慮retract的是最新的數(shù)據(jù)還是次新的數(shù)據(jù),需要不同的邏輯處理。
7、實(shí)現(xiàn)merge方法,用于某些優(yōu)化場(chǎng)景(如使用hop窗口)。
需要考慮merge的是否是比當(dāng)前新的數(shù)據(jù),需要不同的處理邏輯。
8、其他方面,考慮到需要對(duì)輸入度數(shù)按照事件時(shí)間排序,在open方法中實(shí)例化了自定義的Comparator類,對(duì)accumulator數(shù)據(jù)結(jié)構(gòu)中的inputList按事件時(shí)間的降序排序。
請(qǐng)參考[使用IntelliJ IDEA開(kāi)發(fā)自定義函數(shù)]()完成UDAF編譯、打包,并參考UDX概述完成資源的上傳和引用。
四、SQL開(kāi)發(fā)及測(cè)試結(jié)果
(一)over窗口
SQL代碼如下,語(yǔ)法檢查、上線、啟動(dòng)作業(yè)(選擇當(dāng)前啟動(dòng)位點(diǎn))。并將表1數(shù)據(jù)上傳至datahub。
CREATE FUNCTION OverWindowSubtractionUdaf as 'com.alibaba.blink.sql.udx.SubtractionUdaf';CREATE TABLE input_dh_e_mp_read_curve (`no` VARCHAR,data_date VARCHAR,cons_id VARCHAR,org_no VARCHAR,r1 DOUBLE,ts as TO_TIMESTAMP(concat(data_date,'000000'),'yyyyMMddHHmmss'),WATERMARK wk FOR ts as withOffset(ts, 2000) ) WITH (type = 'datahub',endPoint = 'http://dh-cn-shanghai.aliyun-inc.com',roleArn='acs:ram::XXX:role/aliyunstreamdefaultrole',project = 'jszc_datahub',topic = 'input_dh_e_mp_read_curve' ); CREATE TABLE data_out(cons_id varchar,data_date varchar,subDegreeR1 DOUBLE )with(type = 'print' );INSERT into data_out SELECTcons_id,last_value(data_date) OVER (PARTITION BY cons_id ORDER BY ts ROWS BETWEEN 1 preceding AND CURRENT ROW) as data_date,OverWindowSubtractionUdaf(r1,unix_timestamp(ts)) OVER (PARTITION BY cons_id ORDER BY ts ROWS BETWEEN 1 preceding AND CURRENT ROW) as data_date FROM input_dh_e_mp_read_curve由于使用了print connector,從對(duì)應(yīng)的sink的taskmanager.out日志中可以查看到輸出如下(已忽略其他debug日志):
task-1> (+)100000002,20190716,13.76 task-1> (+)100000002,20190717,0.35999999999999943 task-1> (+)100000002,20190718,2.4700000000000006對(duì)比期望輸出(表2),20190717和20190718兩個(gè)窗口的數(shù)據(jù)均正確,表明業(yè)務(wù)邏輯正確,但此輸出與期望輸出有少許差異:
(1)20190716輸出為13.76,這是因?yàn)榈谝粋€(gè)over窗口只有一條數(shù)據(jù)導(dǎo)致的,這種數(shù)據(jù)可以在業(yè)務(wù)層過(guò)濾掉;
(2)20190719的數(shù)據(jù)沒(méi)有輸出,這是因?yàn)槲覀冊(cè)O(shè)置了watermark,測(cè)試環(huán)境下20190719之后沒(méi)有數(shù)據(jù)進(jìn)來(lái)觸發(fā)20190719對(duì)應(yīng)的窗口的結(jié)束。
(二)hop窗口
SQL代碼如下:語(yǔ)法檢查、上線、啟動(dòng)作業(yè)(選擇當(dāng)前啟動(dòng)位點(diǎn))。并將表1數(shù)據(jù)上傳至datahub。
CREATE FUNCTION HopWindowSubtractionUdaf as 'com.alibaba.blink.sql.udx.SubtractionUdaf';CREATE TABLE input_dh_e_mp_read_curve (`no` VARCHAR,data_date VARCHAR,cons_id VARCHAR,org_no VARCHAR,r1 DOUBLE,ts as TO_TIMESTAMP(concat(data_date,'000000'),'yyyyMMddHHmmss'),WATERMARK wk FOR ts as withOffset(ts, 2000) ) WITH (type = 'datahub',endPoint = 'http://dh-cn-shanghai.aliyun-inc.com',roleArn='acs:ram::XXX:role/aliyunstreamdefaultrole',project = 'jszc_datahub',topic = 'input_dh_e_mp_read_curve' ); CREATE TABLE data_out(cons_id varchar,data_date varchar,subDegreeR1 DOUBLE )with(type = 'print' ); INSERT into data_out SELECTcons_id,DATE_FORMAT(HOP_end(ts, INTERVAL '1' day,INTERVAL '2' day), 'yyyyMMdd'),HopWindowSubtractionUdaf(r1,unix_timestamp(ts)) FROM input_dh_e_mp_read_curve group by hop(ts, INTERVAL '1' day,INTERVAL '2' day),cons_id;由于使用了print connector,從對(duì)應(yīng)的sink的taskmanager.out日志中可以查看到輸出如下(已忽略其他debug日志):
task-1> (+)100000002,20190716,13.76 task-1> (+)100000002,20190717,0.35999999999999943 task-1> (+)100000002,20190718,2.4700000000000006對(duì)比期望輸出(表2),20190717和20190718兩個(gè)窗口的數(shù)據(jù)均正確,表明業(yè)務(wù)邏輯正確,但此輸出與期望輸出有少許差異:
(1)20190716輸出為13.76,這是因?yàn)榈谝粋€(gè)hop窗口只有一條數(shù)據(jù)導(dǎo)致的,這種數(shù)據(jù)可以在業(yè)務(wù)層過(guò)濾掉;
(2)20190719的數(shù)據(jù)沒(méi)有輸出,這是因?yàn)槲覀冊(cè)O(shè)置了watermark,測(cè)試環(huán)境下20190719之后沒(méi)有數(shù)據(jù)進(jìn)來(lái)觸發(fā)20190719對(duì)應(yīng)的窗口的結(jié)束。
五、幾點(diǎn)思考
1、關(guān)于UDAF內(nèi)部方法的調(diào)用關(guān)系和順序
UDAF中主要有createAccumulator、getValue、accumulate、retract和merge方法,其調(diào)用關(guān)系和順序并不是完全確定,而是與Blink底層優(yōu)化、Blink版本、開(kāi)窗類型(如hop還是over窗口)等相關(guān)。
比較確定的是一次正常(沒(méi)有failover)的作業(yè),createAccumulator方法只在作業(yè)啟動(dòng)時(shí)調(diào)用一次,accumulate方法在每條數(shù)據(jù)輸入時(shí)調(diào)用一次,在觸發(fā)數(shù)據(jù)輸出時(shí)會(huì)調(diào)用一次getValue(并不代表只調(diào)用一次)。
而retract方法和merge方法則跟具體的優(yōu)化方式或開(kāi)窗類型有關(guān),本案例中over窗口調(diào)用retract方法而不調(diào)用merge方法,hop窗口調(diào)用merge方法而不調(diào)用retract方法。
大家可以增加日志,觀察這幾個(gè)方法的調(diào)用順序,還是蠻有意思的。
2、如何知道需要實(shí)現(xiàn)UDAF中的哪些方法
UDAF中必須實(shí)現(xiàn)createAccumulator、getValue、accumulate方法,可選擇實(shí)現(xiàn)retract和merge方法。
一般情況下,可先實(shí)現(xiàn)createAccumulator、getValue、accumulate三個(gè)方法,然后編寫SQL后進(jìn)行語(yǔ)法檢查,SQL編譯器會(huì)提示是否需要retract或merge方法。
比如,如果沒(méi)有實(shí)現(xiàn)retract方法,在使用over窗口時(shí),語(yǔ)法檢查會(huì)報(bào)類似如下錯(cuò)誤:
比如,如果沒(méi)有實(shí)現(xiàn)merge方法,在使用over窗口時(shí),語(yǔ)法檢查會(huì)報(bào)類似如下錯(cuò)誤:
org.apache.flink.table.api.ValidationException: Function class 'com.alibaba.blink.sql.udx.SubtractionUdaf' does not implement at least one method named 'merge' which is public, not abstract and (in case of table functions) not static.3、本案例存在優(yōu)化空間的地方
(1)本案例沒(méi)有考慮數(shù)據(jù)缺失的問(wèn)題,比如因?yàn)槟撤N原因(網(wǎng)絡(luò)問(wèn)題、數(shù)據(jù)采集問(wèn)題等)缺少20190717的數(shù)據(jù)。這種情況下會(huì)是什么樣的結(jié)果?大家可以自行測(cè)試下;
(2)本案例使用了一個(gè)List,然后通過(guò)Collections.sort方法進(jìn)行排序,這不是很優(yōu)的方法,如果用優(yōu)先級(jí)隊(duì)列(priority?queue)性能應(yīng)該會(huì)更好;
原文鏈接
本文為云棲社區(qū)原創(chuàng)內(nèi)容,未經(jīng)允許不得轉(zhuǎn)載。
總結(jié)
以上是生活随笔為你收集整理的使用Blink SQL+UDAF实现差值聚合计算的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 智能用户增长神器QuickAudienc
- 下一篇: 首次曝光 | 阿里数万名开发者都在使用的