xiangri

无论前路渺茫,依旧尚存良知.

  • 主页
  • 杂记
所有文章 关于我

xiangri

无论前路渺茫,依旧尚存良知.

  • 主页
  • 杂记

Windows下部署spark

2017-04-09

Windows下部署spark部署纯属瞎折腾,开发还是linux。

部署环境windows10 + spark2.1 + python3.5 + Hadoop2.6 .

暂时不支持python3.6 !!!(坑了好久。。。)

先装好JDK、Python和Hadoop环境。
虽然Spark不依赖Hadoop但后面还是有坑…

安装Spark

在Apache Spark™官网下载对应版本的spark.



下载完成解压(注意路径不要有空格!!!),然后添加spark环境变量

1
2
3
4
5
6
7
8
#PATH后添加
E:\Spark\bin
E:\Spark\sbin
#下面这步至关重要,否则无法在python中使用spark
#然后在环境变量里新建一个系统变量PYTHONPATH
E:\Spark\python\lib\pyspark.zip
E:\Spark\python\lib\py4j-0.10.4-src.zip

需要注意的是安装好后并不能用,,在window下还需要hadoop的winutil.exe,所以还需要下载hadoop版本对应的winutil.exe git上下载地址,将下载后的文件复制到hadoop的bin目录即可。

然后打开cmd 运行spark-shell看是否安装成功。

如果报以下错误

1
2
3
4
Error occurred during initialization of VM
Could not reserve enough space for object heap
Error: Could not create the Java Virtual Machine.
Error: A fatal exception has occurred. Program will exit.

则需要指明JVM的内存分配限制,在系统环境变量中添加_JAVA_OPTIONS


JVMmemory

前者为最小尺寸,初始分配;后者为最大允许分配尺寸,按需分配,最低得512MB才能启动。

赏

谢谢你请我吃糖果

支付宝
微信
  • Python
  • Spark
  • Hadoop

扫一扫,分享到微信

微信分享二维码
Ubuntu Spark 环境搭建
虚拟机连不上网络
© 2017 xiangri
Hexo Theme Yilia by Litten
  • 所有文章
  • 关于我

tag:

  • Linux
  • ACM-ICPC
  • 杂记
  • Navicat
  • Oracle
  • Error
  • Python
  • Spark
  • Ubuntu
  • Anaconda
  • Hadoop
  • MongoDB
  • dot
  • 绘图
  • hexo-shell-Markdown
  • secureCRT
  • 虚拟机
  • ssh
  • 爬虫

    缺失模块。
    1、在博客根目录(注意不是yilia根目录)执行以下命令:
    npm i hexo-generator-json-content --save

    2、在根目录_config.yml里添加配置:

      jsonContent:
        meta: false
        pages: false
        posts:
          title: true
          date: true
          path: true
          text: true
          raw: false
          content: false
          slug: false
          updated: false
          comments: false
          link: false
          permalink: false
          excerpt: false
          categories: false
          tags: true
    

XiangRi.
Current Undergraduate,
Software Engineering.

I love life.
I love pretty girls.
I love poetry and future.