搭建 Hadoop2.7.2 + Spark1.6环境
生活随笔
收集整理的這篇文章主要介紹了
搭建 Hadoop2.7.2 + Spark1.6环境
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
2019獨角獸企業重金招聘Python工程師標準>>>
?
服務器上已經有了 hadoop2.7.2環境,這次只用配置spark1.6就可以。
服務器操作系統為centOS6.5
1、安裝Scala ?????
下載地址:http://www.scala-lang.org/download/ ?
注:我下載的是scala-2.11.8.tgz
將壓縮上傳至/usr/local?目錄 ?
-
解壓縮
-
做軟聯接
-
設置環境變量
-
使環境變量生效
-
測試環境變量設置
2、Spark安裝與配置
下載:?http://spark.apache.org/downloads.html?
下載的版本:spark-1.6.1-bin-hadoop2.6.tgz
將壓縮文件上傳至/usr/local?目錄 ?
- 解壓縮
- 做軟聯接
- 設置環境變量
- 使環境變量生效
- 測試環境變量設置
-
配置Spark
- 修改spark-env.sh
- 啟動Spark
-
提交任務到Spark集群
- 提交任務到yarn中
- 使用web查看任務運行狀態 ? http://192.168.31.213:8088/?
轉載于:https://my.oschina.net/xiaoluobutou/blog/675897
與50位技術專家面對面20年技術見證,附贈技術全景圖總結
以上是生活随笔為你收集整理的搭建 Hadoop2.7.2 + Spark1.6环境的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 页面设计四大基本原则
- 下一篇: [javaSE] 数组(排序-冒泡排序)