spark平台搭建
Spark是用Scala程序设计语言编写而成,运行于Java虚拟机(JVM)环境之上。目前支持如下程序设计语言编写Spark应用:
Scala
Java
Python
Clojure
R
前提条件:
- 为了让Spark能够在本机正常工作,你需要安装Java开发工具包(JDK)。windows与ubuntu自行下载对应的安装包安装,安装目录不要带空格。
同样还需要在电脑上安装Spark软件.
在Spark网站下载最新版本的Spark。
将安装文件解压到本地文件夹中(如:c:\dev,ubuntu也同样解压)。为了验证Spark安装的正确性,切换至Spark文件夹然后用如下命令启动Spark Shell。这是Windows环境下的命令。c:
cd c:\dev\spark-1.2.0-bin-hadoop2.4
bin\spark-shell
如果使用Linux或Mac OS,请相应地编辑命令以便能够在相应的平台上正确运行。
还没有评论,来说两句吧...