Ubuntu-16.0-04-2 + spark2.1 + Anaconda3-4.1.1(python3.5.2)
Anaconda安装
|
|
Spark安装
基本和前一篇(Windows下部署spark)中Spark安装一致,下载、解压、添加环境变量。。。
Python中使用pyspark
先将spark目录下的python库添加到了python的找寻目录,添加一个PYTHONPATH的环境变量
|
|
然后在spark安装目录下/spark-2.1.0-bin-hadoop2.6/python/lib里找到py4j-0.10.4-src.zip,将其解压到/spark-2.1.0-bin-hadoop2.6/python目录下即可。
#测试
import pyspark
conf = pyspark.SparkConf().setAppName("test").setMaster("local")
sc = pyspark.SparkContext(conf=conf)