Spark Streaming中的架构设计和运行机制是什么
這篇文章主要介紹“Spark Streaming中的架構(gòu)設(shè)計(jì)和運(yùn)行機(jī)制是什么”,在日常操作中,相信很多人在Spark Streaming中的架構(gòu)設(shè)計(jì)和運(yùn)行機(jī)制是什么問題上存在疑惑,小編查閱了各式資料,整理出簡(jiǎn)單好用的操作方法,希望對(duì)大家解答”Spark Streaming中的架構(gòu)設(shè)計(jì)和運(yùn)行機(jī)制是什么”的疑惑有所幫助!接下來,請(qǐng)跟著小編一起來學(xué)習(xí)吧!
RDD的模板是DStream,RDD DAG的模板是DStreamGraph,Spark Streaming是在RDD的基礎(chǔ)上加上時(shí)間維度,在Driver端會(huì)啟動(dòng)一個(gè)定時(shí)器,間隔BatchDuration生成Job,在Executor端會(huì)啟動(dòng)一個(gè)定時(shí)器,間隔200ms把接收到的數(shù)據(jù)放入BlockManager中,并把元數(shù)據(jù)信息上報(bào)給Driver端的ReceiverTracker,整個(gè)程序引擎是無時(shí)無刻在運(yùn)行的。
JobGenerator類中有一個(gè)timer對(duì)象,其間隔BatchDuration發(fā)送GenerateJobs消息來生成Job。
BlockGenerator類中有一個(gè)blockIntervalTimer對(duì)象,每隔200ms調(diào)用updateCurrentBuffer方法,把接收到的數(shù)據(jù)交給BlockManager進(jìn)行存儲(chǔ),并向ReceiverTracker上報(bào)元數(shù)據(jù)信息。
RecurringTimer類中的loop方法是一個(gè)死循環(huán),一直執(zhí)行,間隔一定的周期回調(diào)傳入的方法。
此外,默認(rèn)的并行度具有遺傳性,父RDD的partition個(gè)數(shù)會(huì)遺傳給子RDD,當(dāng)RDD中每個(gè)partition中數(shù)據(jù)較少時(shí),為了提高效率,可以先調(diào)用coalesce方法合并到指定的partition個(gè)數(shù)。Spark Streaming中存在空RDD,即RDD里面沒有數(shù)據(jù),此時(shí)也會(huì)生成Job,Job的生成是定時(shí)觸發(fā)的,不關(guān)心RDD中是否有數(shù)據(jù),這是為了使整個(gè)框架能正常運(yùn)行。
到此,關(guān)于“Spark Streaming中的架構(gòu)設(shè)計(jì)和運(yùn)行機(jī)制是什么”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實(shí)踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識(shí),請(qǐng)繼續(xù)關(guān)注箭頭云網(wǎng)站,小編會(huì)繼續(xù)努力為大家?guī)砀鄬?shí)用的文章!
總結(jié)
以上是生活随笔為你收集整理的Spark Streaming中的架构设计和运行机制是什么的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: k8s中如何实现SchedulingLa
- 下一篇: 如何进行Spark API编程中join