spark平台搭建

矫情吗;* 2022-06-03 06:26 304阅读 0赞
  • Spark是用Scala程序设计语言编写而成,运行于Java虚拟机(JVM)环境之上。目前支持如下程序设计语言编写Spark应用:

    Scala
    Java
    Python
    Clojure
    R

前提条件:

  • 为了让Spark能够在本机正常工作,你需要安装Java开发工具包(JDK)。windows与ubuntu自行下载对应的安装包安装,安装目录不要带空格。
  • 同样还需要在电脑上安装Spark软件.
    在Spark网站下载最新版本的Spark。
    将安装文件解压到本地文件夹中(如:c:\dev,ubuntu也同样解压)。为了验证Spark安装的正确性,切换至Spark文件夹然后用如下命令启动Spark Shell。这是Windows环境下的命令。

    c:
    cd c:\dev\spark-1.2.0-bin-hadoop2.4
    bin\spark-shell

如果使用Linux或Mac OS,请相应地编辑命令以便能够在相应的平台上正确运行。

发表评论

表情:
评论列表 (有 0 条评论,304人围观)

还没有评论,来说两句吧...

相关阅读

    相关 spark

    前提:安装好了scala java hadoop 然后安装spark,只需要解压spark 1:修改配置文件 spark-env.sh 在主节点上进入spark安装

    相关 spark平台

    Spark是用Scala程序设计语言编写而成,运行于Java虚拟机(JVM)环境之上。目前支持如下程序设计语言编写Spark应用: Scala Java