spark的环境安装

1.安装sbt

正常安装流程。

在cmd里运行的时候,要提前设置代理(如果上网有代理),set JAVA_OPTS=-Dhttp.proxySet=true -Dhttp.proxyHost=172.17.18.84 -Dhttp.proxyPort=8080。这样sbt就可以联网下载了,否则后续的安装会不成功。

2.安装scala

正常安装流程。

3.安装git

正常安装。如果上网有代理,需要在bash里面进行设置,git config --global http.proxy 172.17.18.84 :8080

4.安装spark

下载spark的tgz文件,解压缩后,cmd进入到根目录。

输入sbt package,进行打包。这其中会调用git,如果没安装会报错。

如果spark安装成功,进入到spark/bin目录下,运行spark-shell,看到欢迎界面。

时间: 2024-10-10 13:40:02

spark的环境安装的相关文章

spark开发环境安装配置

在window上安装spark开发环境, 1,安装java http://www.oracle.com/technetwork/java/javase/downloads/index.html 配置环境变量 2,安装scala http://www.scala-lang.org/ 配置环境变量 3,安装idea https://www.jetbrains.com/idea/

Spark单机环境安装

1.ubantu环境下安装JDK 我的jdk安装在/home/fuqiang/java/jvm目录下,scala,spark都是在此目录下,主要是JDK环境变量的设置$ sudo gedit /etc/profile在文档的最末尾加上export JAVA_HOME=/home/fuqiang/java/jvm/jdk1.7.0_79export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATHexport PATH=$JAVA_H

Apache Spark源码走读之12 -- Hive on Spark运行环境搭建

欢迎转载,转载请注明出处,徽沪一郎. 楔子 Hive是基于Hadoop的开源数据仓库工具,提供了类似于SQL的HiveQL语言,使得上层的数据分析人员不用知道太多MapReduce的知识就能对存储于Hdfs中的海量数据进行分析.由于这一特性而收到广泛的欢迎. Hive的整体框架中有一个重要的模块是执行模块,这一部分是用Hadoop中MapReduce计算框架来实现,因而在处理速度上不是非常令人满意.由于Spark出色的处理速度,有人已经成功将HiveQL的执行利用Spark来运行,这就是已经非常

分别用Eclipse和IDEA搭建Scala+Spark开发环境

开发机器上安装jdk1.7.0_60和scala2.10.4,配置好相关环境变量.网上资料很多,安装过程忽略.此外,Eclipse使用Luna4.4.1,IDEA使用14.0.2版本. 1. Eclipse开发环境搭建 1.1. 安装scala插件 安装eclipse-scala-plugin插件,下载地址http://scala-ide.org/download/prev-stable.html 解压缩以后把plugins和features复制到eclipse目录,重启eclipse以后即可.

spark开发环境配置

以后spark,mapreduce,mpi可能三者集于同一平台,各自的侧重点有所不用,相当于云计算与高性能计算的集合,互补,把spark的基础看了看,现在把开发环境看看,主要是看源码,最近Apache Spark源码走读系列挺好的,看了些.具体环境配置不是太复杂,具体可以看https://github.com/apache/spark 1.代码下载 git clone https://github.com/apache/spark.git 2.直接构建spark 我是基于hadoop2.2.0的

Spark编程环境搭建(基于Intellij IDEA的Ultimate版本)

为什么,我要在这里提出要用Ultimate版本. IDEA Community(社区版)再谈之无奈之下还是去安装旗舰版 IntelliJ IDEA的黑白色背景切换(Ultimate和Community版本皆通用) 使用 IntelliJ IDEA 导入 Spark 最新源码及编译 Spark 源代码 IDEA里如何多种方式打jar包,然后上传到集群 IntelliJ IDEA(Community版本)的下载.安装和WordCount的初步使用(本地模式和集群模式) IntelliJ IDEA(U

Spark 个人实战系列(1)--Spark 集群安装

前言: CDH4不带yarn和spark, 因此需要自己搭建spark集群. 这边简单描述spark集群的安装过程, 并讲述spark的standalone模式, 以及对相关的脚本进行简单的分析. spark官网: http://spark.apache.org/downloads.html *)安装和部署 环境: 172.16.1.109~172.16.1.111三台机器(对应域名为tw-node109~tw-node111), centos6.4, 已部署cdh4 目标是: 搭建一个spar

windows下spark开发环境配置

http://www.cnblogs.com/davidwang456/p/5032766.html windows下spark开发环境配置 --本篇随笔由同事葛同学提供. 特注:windows下开发spark不需要在本地安装hadoop,但是需要winutils.exe.hadoop.dll等文件,前提是你已经安装了eclipse.maven.jdk等软件 spark支持jdk版本建议是1.8及以上,如果开发spark建议将jdk编译版本设置为1.8 我选择的spark是spark-1.4.0

XMPP-04环境安装(配置客户端)

四.配置客户端 1.来到XMPP官网,寻找所需客户端软件 2.选用电脑自带的信息,Adium和Spark这三个客户端软件,我共享的资源里有 3.首先来配置信息 打开信息 ->添加账户 ->其他邮件账户 ->继续 ->账户类型:Jabber ->用户名:zhangsan ->密码:123456 ->创建 XMPP-04环境安装(配置客户端),布布扣,bubuko.com