日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hadoop运行任务时一直卡在: INFO mapreduce.Job: Running job

發(fā)布時(shí)間:2025/3/11 编程问答 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Hadoop运行任务时一直卡在: INFO mapreduce.Job: Running job 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

原文鏈接:http://blog.csdn.net/dai451954706/article/details/50464036

-----------------------------------------------------------------------------------------------------

 今天,一大清早同事就讓我?guī)退鉀QHive的問題:他在Hive中執(zhí)行簡單的查詢(直接從hive查詢數(shù)據(jù),沒有MR過程)能很快的得到結(jié)果,但是執(zhí)行復(fù)雜的查詢時(shí),就一直卡著不動(dòng).我連到服務(wù)器上試了一下,跟他遇到的問題一樣,問題處在哪里呢?既然簡單的查詢能出結(jié)果,復(fù)雜查詢需要MR計(jì)算,但是卻卡住了,那估計(jì)是Hadoop的問題.

  于是,我在Hadoop跑一個(gè)簡單的WountCound程序試試,結(jié)果跟Hive中遇到的情況一樣:

????

??? 然后就一直卡在這個(gè)界面,很久都沒有結(jié)果.

 最先想到的是:配置可能有點(diǎn)問題.于是我把配置檢查了一遍,發(fā)現(xiàn)配置沒錯(cuò).于是,我又去檢查Yarn和HDFS的啟動(dòng)日志,也沒有發(fā)現(xiàn)ERROR.接著,我查看每個(gè)任務(wù)運(yùn)行時(shí)的Container日志,也沒有Error.真是見鬼了!

 在我查看各種日志和配置的時(shí)候,我同事在Docker中,將集群上的配置Copy過去,試了一遍,能正常運(yùn)行!這...

 然后,我各種百度,google,在百度出來的各種方法我都試了一遍,仍然沒有解決問題!于是,我同事說,是不是安裝的時(shí)候有些包損壞了.于是,他又重新裝了一邊Hadoop,還是使用原來的配置,可問題依舊!

 此時(shí),都已經(jīng)搞了一直整天了,還有一個(gè)小時(shí)就要下班了!于是,我在Google中看了幾篇文章,基本上上面所說的方法我都試了.終于,在Stackover上有一個(gè)哥們也遇到了同樣的問題,有人幫他解決了,里面鏈接到了一個(gè)網(wǎng)站:http://hortonworks.com/blog/how-to-plan-and-configure-yarn-in-hdp-2-0/? ,我打開一看,說的是要設(shè)置yarn里面關(guān)于內(nèi)存和虛擬內(nèi)存的配置項(xiàng).我以前沒配置這幾項(xiàng),也能正常運(yùn)行,感覺是這個(gè)問題的可能性不大啊!但是,既然這么多方法都不管用,這能試一試了. 

  于是,我在yarn-site.xml中加了:

??????

[plain]?view plaincopy
  • <property>??
  • ????<name>yarn.nodemanager.resource.memory-mb</name>??
  • ????<value>20480</value>??
  • </property>??
  • <property>??
  • ???<name>yarn.scheduler.minimum-allocation-mb</name>??
  • ???<value>2048</value>??
  • </property>??
  • <property>??
  • ????<name>yarn.nodemanager.vmem-pmem-ratio</name>??
  • ????<value>2.1</value>??
  • </property>??
  • ? ?再次運(yùn)行,居然成功了!

     然后運(yùn)行Hive,也能正確的運(yùn)行了!

    ? ? 出現(xiàn)此故障的原因應(yīng)該是,在每個(gè)Docker分配的內(nèi)存和CPU資源太少,不能滿足Hadoop和Hive運(yùn)行所需的默認(rèn)資源需求。


    以上參數(shù)的配置詳解見博客:http://blog.csdn.net/zengmingen/article/details/52609893




    總結(jié)

    以上是生活随笔為你收集整理的Hadoop运行任务时一直卡在: INFO mapreduce.Job: Running job的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。