scala命令行运行spark代码
生活随笔
收集整理的這篇文章主要介紹了
scala命令行运行spark代码
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
/home/appleyuchi/scripts/scala.sh
#!/bin/bash # author:菜鳥教程 # url:www.runoob.comecho "Shell 傳遞參數實例!"; echo "執行的文件名:$0"; #echo "第一個參數為:$1"; #echo "第二個參數為:$2"; #echo "第三個參數為:$3";scala -classpath .:$(echo *.jar $SPARK_HOME/jars/*.jar | tr ' ' ':') $1?
/home/appleyuchi/scripts/scalac.sh
#!/bin/bash # author:菜鳥教程 # url:www.runoob.comecho "Shell 傳遞參數實例!"; echo "執行的文件名:$0"; #echo "第一個參數為:$1"; #echo "第二個參數為:$2"; #echo "第三個參數為:$3";scalac -classpath .:$(echo *.jar $SPARK_HOME/jars/*.jar | tr ' ' ':') $1~/.bashrc中寫入:
alias scalac=~/scripts/scalac.sh
alias scala=~/scripts/scala.sh
?
運行代碼如下(代碼的邏輯其實和spark沒啥關系,為了驗證效果所以在開頭加了一句spark相關的):
import org.apache.spark.SparkContext._ object HelloWorld {/* 這是我的第一個 Scala 程序* 以下程序將輸出'Hello World!' */def main(args: Array[String]) {println("Hello, world!") // 輸出 Hello World} }兩種運行方法:
①
scalac HelloWorld.scala
scala HelloWorld
②
scala HelloWorld.scala
?
?
總結
以上是生活随笔為你收集整理的scala命令行运行spark代码的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 美国非农数据是什么意思? 美国的非农数据
- 下一篇: 平安口袋银行app怎么注销信用卡