python spark 配置
生活随笔
收集整理的這篇文章主要介紹了
python spark 配置
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
前提:已經(jīng)裝好 java 1.8 和 hadoop 2.7
1. 下載解壓放后的目錄?/Users/gao/spark-1.4.1-bin-hadoop2.6
2. 在~/.bash_profile 中加入 export PYTHONPATH=$PYTHONPATH:/Users/gao/spark-1.4.1-bin-hadoop2.6/python
3. 將/Users/gao/spark-1.4.1-bin-hadoop2.6/python/lib/py4j 解藥到?/Users/gao/spark-1.4.1-bin-hadoop2.6/python/ 目錄下
大功告成,在 python 命令行中輸入from pyspark import SparkContext,沒報錯即ok。
轉(zhuǎn)載于:https://www.cnblogs.com/olivetree123/p/4756270.html
總結(jié)
以上是生活随笔為你收集整理的python spark 配置的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 做梦梦到蛇和老鼠是什么征兆
- 下一篇: python webdriver 常用元