Hadoop大数据——mapreduce的Distributed cache
生活随笔
收集整理的這篇文章主要介紹了
Hadoop大数据——mapreduce的Distributed cache
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
應用場景:map side join
工作原理:
通過mapreduce框架將一個文件(本地/HDFS)分發到每一個運行時的task(map task /reduce task)節點上(放到task進程所在的工作目錄)
獲取的方式: 在我們自己的mapper或者reducer的代碼內,直接使用本地文件JAVA ----API 來訪問這個文件
示例程序:
- 首先在 job對象中進行指定:
- 然后在mapper或者reducer中直接使用:
總結
以上是生活随笔為你收集整理的Hadoop大数据——mapreduce的Distributed cache的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Hadoop大数据——mapreduce
- 下一篇: MongoDB——Shell的基本操作及