日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > windows >内容正文

windows

windows下spark开发环境配置

發布時間:2025/4/5 windows 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 windows下spark开发环境配置 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

--本篇隨筆由同事葛同學提供。

windows下spark開發環境配置

特注:windows下開發spark不需要在本地安裝hadoop,但是需要winutils.exe、hadoop.dll等文件,前提是你已經安裝了eclipse、maven、jdk等軟件

spark支持jdk版本建議是1.8及以上,如果開發spark建議將jdk編譯版本設置為1.8

?

我選擇的spark是spark-1.4.0-bin-hadoop2.6.tgz,故以該版本為例

?

第一步:下載spark-1.4.0-bin-hadoop2.6.tgz到本地,并解壓在本地目錄

地址為:http://spark.apache.org/downloads.html

?

第二步:下載windows下hadoop工具包(分為32位和64位的),在本地新建一個hadoop目錄,必須有 bin目錄例如:D:\spark\hadoop-2.6.0\bin

然后將winutil等文件放在bin目錄下

地址:https://github.com/sdravida/hadoop2.6_Win_x64/tree/master/bin

?

?

?

第三步:配置hadoop和spark的環境變量:

HADOOP_HOME 例如:D:\spark\hadoop-2.6.0

?

? SPARK_HOME

?

SPARK_CLASSPATH

?

path中加入spark和hadoop

?

?

至此,在cmd命令下輸入spark-shell 至此windows下配置ok了

?

?

?

搭建自己的spark maven項目hello world程序

對于已經安裝了eclipse環境的程序員來說,不用再單獨安裝saprk的開發環境,由于spark是基于scala語言的,所以如果要想看源代碼,需要安裝scala的eclipse插件

第一步:安裝scala的eclipse插件

地址:http://download.scala-ide.org/sdk/lithium/e44/scala211/stable/site

?

?

?

第一步:創建自己的spark maven項目

勾選create a simple project

?

?

第二步:選則maven生成的包,這里一定要選這jar,因為spark程序一般是打包為jar包的

其他必填自己按需填

?

?

第三步:添加spark的jar包到剛才新建的maven項目中

找到集群安裝的spark安裝目錄,在lib目錄下會看到

?

將加到maven項目的build path下

?

第四步:pom中添加自己的spark,hadoop maven依賴

例如:

??? <dependency>

??????????? <groupId>org.apache.spark</groupId>

??????????? <artifactId>spark-core_2.10</artifactId>

??????????? <version>1.5.2</version>

??????? </dependency>

??????? <dependency>

??????? <groupId>org.apache.spark</groupId>

??????? <artifactId>spark-sql_2.10</artifactId>

??????? <version>1.5.2</version>

??????? </dependency>

??????? <dependency>

??????????? <groupId>org.apache.hadoop</groupId>

??????????? <artifactId>hadoop-client</artifactId>

??????????? <version>1.2.0</version>

??????? </dependency>

?

第五部:spark程序的入口是main函數,至此可以編寫自己的hello world并讓它跑起來和調試

public class SparkMain implements Serializable {

??

?? public static void main(String[] args) throws Exception {

????? //編寫自己的spark程序????????

System.out.println(“hello spark!”);

}

?? }

Now everything is ready for you to run your main Class. Enjoy!

轉載于:https://www.cnblogs.com/davidwang456/p/5032766.html

總結

以上是生活随笔為你收集整理的windows下spark开发环境配置的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。