spark on k8s准确完整的测试步骤:提交Pi计算程序至k8s集群
生活随笔
收集整理的這篇文章主要介紹了
spark on k8s准确完整的测试步骤:提交Pi计算程序至k8s集群
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
部署流程:
-
下載spark環(huán)境包https://www.apache.org/dyn/closer.lua/spark/spark-2.4.4/spark-2.4.4-bin-hadoop2.7.tgz
-
切換目錄至根目錄:cd spark-2.4.4-bin-hadoop2.7
-
builddocker應用程序鏡像及push至repo:docker build -t xxx/spark:2.4.4 -f kubernetes/dockerfiles/spark/Dockerfile . && docker push xxx/spark:2.4.4
-
創(chuàng)建aks serviceaccount: kubectl create serviceaccount spark
-
創(chuàng)建clusterrolebinding:kubectl create clusterrolebinding spark-role --clusterrole=edit --serviceaccount=default:spark --namespace=default
-
本地提交應用程序(經(jīng)驗證:jar包路徑及各項配置無誤):
- docker提交spark程序(不推薦):docker run -it --rm .kube/config:/root/.kube/config linclaus/spark-submit /opt/spark/bin/spark-submit --master k8s://https://data-extra-data-extraction-5abb9d-e807019a.hcp.chinanorth2.cx.prod.service.azk8s.cn:443 --deploy-mode cluster --conf spark.kubernetes.authenticate.driver.serviceAccountName=spark --conf spark.kubernetes.namespace=default --name spark-pi --class org.apache.spark.examples.SparkPi --conf spark.executor.instances=1 --conf spark.kubernetes.container.image=linclaus/spark:2.4.4 local:///opt/spark/examples/jars/spark-examples_2.11-2.4.4.jar curl -LO https://storage.googleapis.com/kubernetes-release/release/v1.16.0/bin/linux/amd64/kubectl
參考鏈接:
Spark On K8S
總結(jié)
以上是生活随笔為你收集整理的spark on k8s准确完整的测试步骤:提交Pi计算程序至k8s集群的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: spark on k8s报错:pods
- 下一篇: Spark on K8S 的几种模式