日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hadoop中Block和Split区别

發(fā)布時間:2025/3/21 编程问答 17 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Hadoop中Block和Split区别 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

?

兩者是從不同的角度來定義的:

HDFS以固定大小的block為基本單位存儲數(shù)據(jù)(分布式文件系統(tǒng),實際存儲角度,物理存儲單位);

MapReduce以split作為處理單位(編程模型角度,邏輯單位);

Block塊

第一部分就是數(shù)據(jù)的劃分(即把File劃分成Block),這個是物理上真真實實的進(jìn)行了劃分,數(shù)據(jù)文件上傳到HDFS里的時候,需要劃分成一塊一塊,每塊的大小由hadoop-default.xml里配置選項進(jìn)行劃分。

這個就是默認(rèn)的每個塊64MB:

<name>dfs.block.size</name>

數(shù)據(jù)劃分的時候有冗余,個數(shù)是由:

<name>dfs.replication</name>

Split分片

在hadoop中第二種劃分是由InputFormat這個接口來定義的,其中有個getSplits方法。在Hadoop0.1中,split劃分是在JobTracker端完成的,發(fā)生在JobInitThread對JobInProgress調(diào)用inittasks()的時候;而在0.18.3中是由JobClient完成的,JobClient劃分好后,把split.file寫入hdfs里,到時候jobtracker端只需要讀這個文件,就知道Split是怎么劃分的。

幾個簡單的結(jié)論:

1. 一個split不會包含零點幾或者幾點幾個Block,一定是包含大于等于1個整數(shù)個Block;

2. 一個split不會包含兩個File的Block,不會跨越File邊界;

3. split和Block的關(guān)系是一對多的關(guān)系;

4. map tasks的個數(shù)是由splits的長度決定的;

?

總結(jié)

以上是生活随笔為你收集整理的Hadoop中Block和Split区别的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。