日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

spark和hadoop升级记录(持续更新中)

發布時間:2023/12/31 编程问答 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 spark和hadoop升级记录(持续更新中) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

昨晚從spark-2.3.1-bin-hadoop2.7升級到spark-3.0.0-preview2-bin-hadoop3.2

基本結論是:

/etc/hosts不用修改

~/.bashrc中路徑改下(就是和spark相關的,spark-2.3.1-bin-hadoop2.7改成spark-3.0.0-preview2-bin-hadoop3.2)

export SPARK_LOCAL_IP=Desktop(從機則要改成自己的ip)

?

其他地方不用修改,可以順利跑通spark standalone模式,基本上spark-2.3.1-bin-hadoop2.7的環境配置可以直接套用于spark-3.0.0-preview2-bin-hadoop3.2

------------spark on yarn ---------------------------

Hadoop2.x中是slaves

Hadoop3.x中是workers(把slaves重命名拿來用即可)

順帶一提,spark3.x中的slaves依然不變,不需要改成workers

hadoop2.x-3.x的端口改變[1]

Namenode ports: 50470 --> 9871, 50070 --> 9870, 8020 --> 9820 Secondary NN ports: 50091 --> 9869, 50090 --> 9868 Datanode ports: 50020 --> 9867, 50010 --> 9866, 50475 --> 9865, 50075 --> 9864

上面的端口查了一遍,都不需要在配置文件中特意去修改,默認設定的。

集群的web ui還會提示Upgrade in progress. Not yet finalized.

解決方案:

hdfs dfsadmin -finalizeUpgrade

如果手動刪除了hadoop_tmp中的一些緩存文件,那么需要確保急群中每個節點(包括master)都有這個文件夾:

/home/appleyuchi/bigdata/hadoop_tmp/nm-local-dir/filecache

上述配置可以確保spark on yarn,spark standalone跑通。

----------------------------------------------

Reference:

[1]http://localhost:50070 does not work HADOOP - Stack Overflow

總結

以上是生活随笔為你收集整理的spark和hadoop升级记录(持续更新中)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。