Hadoop简介(1):什么是Map/Reduce
看這篇文章請出去跑兩圈,然后泡一壺茶,邊喝茶,邊看,看完你就對hadoop整體有所了解了。
Hadoop簡介
Hadoop就是一個實現(xiàn)了Google云計算系統(tǒng)的開源系統(tǒng),包括并行計算模型Map/Reduce,分布式文件系統(tǒng)HDFS,以及分布式數(shù)據(jù)庫Hbase,同時Hadoop的相關項目也很豐富,包括ZooKeeper,Pig,Chukwa,Hive,Hbase,Mahout,flume等.
這里詳細分解這里面的概念讓大家通過這篇文章了解到底是什么hadoop:
1.什么是Map/Reduce,看下面的各種解釋:
(1)MapReduce是hadoop的核心組件之一,hadoop要分布式包括兩部分,一是分布式文件系統(tǒng)hdfs,一部是分布式計算框,就是mapreduce,缺一不可,也就是說,可以通過mapreduce很容易在hadoop平臺上進行分布式的計算編程。
(2)Mapreduce是一種編程模型,是一種編程方法,抽象理論。
(3)下面是一個關于一個程序員是如何個妻子講解什么是MapReduce?文章很長請耐心的看。
我問妻子:“你真的想要弄懂什么是MapReduce?” 她很堅定的回答說“是的”。 因此我問道:
我:?你是如何準備洋蔥辣椒醬的?(以下并非準確食譜,請勿在家嘗試)
妻子:?我會取一個洋蔥,把它切碎,然后拌入鹽和水,最后放進混合研磨機里研磨。這樣就能得到洋蔥辣椒醬了。
妻子:?但這和MapReduce有什么關系?
我:?你等一下。讓我來編一個完整的情節(jié),這樣你肯定可以在15分鐘內(nèi)弄懂MapReduce.
妻子:?好吧。
我:現(xiàn)在,假設你想用薄荷、洋蔥、番茄、辣椒、大蒜弄一瓶混合辣椒醬。你會怎么做呢?
妻子:?我會取薄荷葉一撮,洋蔥一個,番茄一個,辣椒一根,大蒜一根,切碎后加入適量的鹽和水,再放入混合研磨機里研磨,這樣你就可以得到一瓶混合辣椒醬了。
我:?沒錯,讓我們把MapReduce的概念應用到食譜上。Map和Reduce其實是兩種操作,我來給你詳細講解下。
Map(映射): 把洋蔥、番茄、辣椒和大蒜切碎,是各自作用在這些物體上的一個Map操作。所以你給Map一個洋蔥,Map就會把洋蔥切碎。 同樣的,你把辣椒,大蒜和番茄一一地拿給Map,你也會得到各種碎塊。 所以,當你在切像洋蔥這樣的蔬菜時,你執(zhí)行就是一個Map操作。 Map操作適用于每一種蔬菜,它會相應地生產(chǎn)出一種或多種碎塊,在我們的例子中生產(chǎn)的是蔬菜塊。在Map操作中可能會出現(xiàn)有個洋蔥壞掉了的情況,你只要把壞洋蔥丟了就行了。所以,如果出現(xiàn)壞洋蔥了,Map操作就會過濾掉壞洋蔥而不會生產(chǎn)出任何的壞洋蔥塊。
Reduce(化簡):在這一階段,你將各種蔬菜碎都放入研磨機里進行研磨,你就可以得到一瓶辣椒醬了。這意味要制成一瓶辣椒醬,你得研磨所有的原料。因此,研磨機通常將map操作的蔬菜碎聚集在了一起。
妻子:?所以,這就是MapReduce?
我:?你可以說是,也可以說不是。 其實這只是MapReduce的一部分,MapReduce的強大在于分布式計算。
妻子:?分布式計算? 那是什么?請給我解釋下吧。
我:?沒問題。
我:?假設你參加了一個辣椒醬比賽并且你的食譜贏得了最佳辣椒醬獎。得獎之后,辣椒醬食譜大受歡迎,于是你想要開始出售自制品牌的辣椒醬。假設你每天需要生產(chǎn)10000瓶辣椒醬,你會怎么辦呢?
妻子:?我會找一個能為我大量提供原料的供應商。
我:是的..就是那樣的。那你能否獨自完成制作呢?也就是說,獨自將原料都切碎? 僅僅一部研磨機又是否能滿足需要?而且現(xiàn)在,我們還需要供應不同種類的辣椒醬,像洋蔥辣椒醬、青椒辣椒醬、番茄辣椒醬等等。
妻子:?當然不能了,我會雇傭更多的工人來切蔬菜。我還需要更多的研磨機,這樣我就可以更快地生產(chǎn)辣椒醬了。
我:沒錯,所以現(xiàn)在你就不得不分配工作了,你將需要幾個人一起切蔬菜。每個人都要處理滿滿一袋的蔬菜,而每一個人都相當于在執(zhí)行一個簡單的Map操作。每一個人都將不斷的從袋子里拿出蔬菜來,并且每次只對一種蔬菜進行處理,也就是將它們切碎,直到袋子空了為止。
這樣,當所有的工人都切完以后,工作臺(每個人工作的地方)上就有了洋蔥塊、番茄塊、和蒜蓉等等。
妻子:但是我怎么會制造出不同種類的番茄醬呢?
我:現(xiàn)在你會看到MapReduce遺漏的階段—攪拌階段。MapReduce將所有輸出的蔬菜碎都攪拌在了一起,這些蔬菜碎都是在以key為基礎的 map操作下產(chǎn)生的。攪拌將自動完成,你可以假設key是一種原料的名字,就像洋蔥一樣。 所以全部的洋蔥keys都會攪拌在一起,并轉移到研磨洋蔥的研磨器里。這樣,你就能得到洋蔥辣椒醬了。同樣地,所有的番茄也會被轉移到標記著番茄的研磨器里,并制造出番茄辣椒醬。
(4)上面都是從理論上來說明什么是MapReduce,那么咱們在MapReduce產(chǎn)生的過程和代碼的角度來理解這個問題。
如果想統(tǒng)計下過去10年計算機論文出現(xiàn)最多的幾個單詞,看看大家都在研究些什么,那收集好論文后,該怎么辦呢??
方法一:
? ?? ?我可以寫一個小程序,把所有論文按順序遍歷一遍,統(tǒng)計每一個遇到的單詞的出現(xiàn)次數(shù),最后就可以知道哪幾個單詞最熱門了。 這種方法在數(shù)據(jù)集比較小時,是非常有效的,而且實現(xiàn)最簡單,用來解決這個問題很合適。?
方法二:
? ?? ? 寫一個多線程程序,并發(fā)遍歷論文。?
這個問題理論上是可以高度并發(fā)的,因為統(tǒng)計一個文件時不會影響統(tǒng)計另一個文件。當我們的機器是多核或者多處理器,方法二肯定比方法一高效。但是寫一個多線程程序要比方法一困難多了,我們必須自己同步共享數(shù)據(jù),比如要防止兩個線程重復統(tǒng)計文件。?
方法三:
? ?? ?把作業(yè)交給多個計算機去完成。?
我們可以使用方法一的程序,部署到N臺機器上去,然后把論文集分成N份,一臺機器跑一個作業(yè)。這個方法跑得足夠快,但是部署起來很麻煩,我們要人工把程序copy到別的機器,要人工把論文集分開,最痛苦的是還要把N個運行結果進行整合(當然我們也可以再寫一個程序)。?
方法四:
? ?? ?讓MapReduce來幫幫我們吧!?
MapReduce本質(zhì)上就是方法三,但是如何拆分文件集,如何copy程序,如何整合結果這些都是框架定義好的。我們只要定義好這個任務(用戶程序),其它都交給MapReduce。
map函數(shù)和reduce函數(shù)
map函數(shù)和reduce函數(shù)是交給用戶實現(xiàn)的,這兩個函數(shù)定義了任務本身。?
map函數(shù):接受一個鍵值對(key-value pair),產(chǎn)生一組中間鍵值對。MapReduce框架會將map函數(shù)產(chǎn)生的中間鍵值對里鍵相同的值傳遞給一個reduce函數(shù)。?
reduce函數(shù):接受一個鍵,以及相關的一組值,將這組值進行合并產(chǎn)生一組規(guī)模更小的值(通常只有一個或零個值)。?
統(tǒng)計詞頻的MapReduce函數(shù)的核心代碼非常簡短,主要就是實現(xiàn)這兩個函數(shù)。?
map(String key, String value):?
// key: document name?
// value: document contents?
for each word w in value:?
EmitIntermediate(w, "1");?
reduce(String key, Iterator values):?
// key: a word?
// values: a list of counts?
int result = 0;?
for each v in values:?
result += ParseInt(v);?
Emit(AsString(result));?
在統(tǒng)計詞頻的例子里,map函數(shù)接受的鍵是文件名,值是文件的內(nèi)容,map逐個遍歷單詞,每遇到一個單詞w,就產(chǎn)生一個中間鍵值對<w, "1">,這表示單詞w咱又找到了一個;MapReduce將鍵相同(都是單詞w)的鍵值對傳給reduce函數(shù),這樣reduce函數(shù)接受的鍵就是單詞w,值是一串"1"(最基本的實現(xiàn)是這樣,但可以優(yōu)化),個數(shù)等于鍵為w的鍵值對的個數(shù),然后將這些“1”累加就得到單詞w的出現(xiàn)次數(shù)。最后這些單詞的出現(xiàn)次數(shù)會被寫到用戶定義的位置,存儲在底層的分布式存儲系統(tǒng)(GFS或HDFS)。?
工作原理
<ignore_js_op>?
上圖是論文里給出的流程圖。一切都是從最上方的user program開始的,user program鏈接了MapReduce庫,實現(xiàn)了最基本的Map函數(shù)和Reduce函數(shù)。圖中執(zhí)行的順序都用數(shù)字標記了。
1.MapReduce庫先把user program的輸入文件劃分為M份(M為用戶定義),每一份通常有16MB到64MB,如圖左方所示分成了split0~4;然后使用fork將用戶進程拷貝到集群內(nèi)其它機器上。?
2.user program的副本中有一個稱為master,其余稱為worker,master是負責調(diào)度的,為空閑worker分配作業(yè)(Map作業(yè)或者Reduce作業(yè)),worker的數(shù)量也是可以由用戶指定的。?
3.被分配了Map作業(yè)的worker,開始讀取對應分片的輸入數(shù)據(jù),Map作業(yè)數(shù)量是由M決定的,和split一一對應;Map作業(yè)從輸入數(shù)據(jù)中抽取出鍵值對,每一個鍵值對都作為參數(shù)傳遞給map函數(shù),map函數(shù)產(chǎn)生的中間鍵值對被緩存在內(nèi)存中。?
4.緩存的中間鍵值對會被定期寫入本地磁盤,而且被分為R個區(qū),R的大小是由用戶定義的,將來每個區(qū)會對應一個Reduce作業(yè);這些中間鍵值對的位置會被通報給master,master負責將信息轉發(fā)給Reduce worker。?
5.master通知分配了Reduce作業(yè)的worker它負責的分區(qū)在什么位置(肯定不止一個地方,每個Map作業(yè)產(chǎn)生的中間鍵值對都可能映射到所有R個不同分區(qū)),當Reduce worker把所有它負責的中間鍵值對都讀過來后,先對它們進行排序,使得相同鍵的鍵值對聚集在一起。因為不同的鍵可能會映射到同一個分區(qū)也就是同一個Reduce作業(yè)(誰讓分區(qū)少呢),所以排序是必須的。?
6.reduce worker遍歷排序后的中間鍵值對,對于每個唯一的鍵,都將鍵與關聯(lián)的值傳遞給reduce函數(shù),reduce函數(shù)產(chǎn)生的輸出會添加到這個分區(qū)的輸出文件中。?
6.當所有的Map和Reduce作業(yè)都完成了,master喚醒正版的user program,MapReduce函數(shù)調(diào)用返回user program的代碼。?
所有執(zhí)行完畢后,MapReduce輸出放在了R個分區(qū)的輸出文件中(分別對應一個Reduce作業(yè))。用戶通常并不需要合并這R個文件,而是將其作為輸入交給另一個MapReduce程序處理。整個過程中,輸入數(shù)據(jù)是來自底層分布式文件系統(tǒng)(GFS)的,中間數(shù)據(jù)是放在本地文件系統(tǒng)的,最終輸出數(shù)據(jù)是寫入底層分布式文件系統(tǒng)(GFS)的。而且我們要注意Map/Reduce作業(yè)和map/reduce函數(shù)的區(qū)別:Map作業(yè)處理一個輸入數(shù)據(jù)的分片,可能需要調(diào)用多次map函數(shù)來處理每個輸入鍵值對;Reduce作業(yè)處理一個分區(qū)的中間鍵值對,期間要對每個不同的鍵調(diào)用一次reduce函數(shù),Reduce作業(yè)最終也對應一個輸出文件。
總結:
通過以上你是否了解什么是MapReduce了那,什么是key,怎么過濾有效數(shù)據(jù),怎么得到自己想要的數(shù)據(jù)。
MapReduce是一種編程思想,可以使用java來實現(xiàn),C++來實現(xiàn)。Map的作用是過濾一些原始數(shù)據(jù),Reduce則是處理這些數(shù)據(jù),得到我們想要的結果,比如你想造出番茄辣椒醬。也就是我們使用hadoop,比方來進行日志處理之后,得到我們想要的關心的數(shù)據(jù)
轉載于:https://www.cnblogs.com/snowbook/p/5660587.html
總結
以上是生活随笔為你收集整理的Hadoop简介(1):什么是Map/Reduce的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: PAT-乙级-1021. 个位数统计 (
- 下一篇: 计算文本的高度