spark的安装配置

环境说明:
        操作系统: centos7 64位 3台
        centos7-1 192.168.111.10 master
        centos7-2 192.168.111.11 slave1
        centos7-3 192.168.111.12 slave2

1.安装jdk,配置jdk环境变量

  https://www.cnblogs.com/zhangjiahao/p/8551362.html

2.安装配置scala

https://www.cnblogs.com/zhangjiahao/p/11689268.html

3.安装spark

spark下载地址:http://spark.apache.org/downloads.html
1,上传解压 tar -zxvf spark-2.0.2-bin-hadoop2
2,进入conf目录 cd /conf

cp spark-env.sh.template spark-env.sh

调整为如下内容

cp slaves.template slaves

调整为如下内容

3.将配置好的spark安装目录,分发到slave1/2节点上   scp -r /usr/local/src/spark-2.0.2-bin-hadoop2.6 [email protected]:/usr/local/src(slave2同理,将salve1改为slave2即可)

4.启动Spark    ./sbin/start-all.sh



 

原文地址:https://www.cnblogs.com/zhangjiahao/p/11689386.html

时间: 2024-11-12 02:08:58

spark的安装配置的相关文章

spark HA 安装配置和使用(spark1.2-cdh5.3)

安装环境如下: 操作系统:CentOs 6.6 Hadoop 版本:CDH-5.3.0 Spark 版本:1.2 集群5个节点 node01-05 node01-03 为worker node04.node05为master spark HA 必须要zookeepr来做协同服务,做master主备切换,zookeeper的安装和配置再次不做赘述. yum源的配置请看: 1.安装 查看spark的相关包有哪些: [[email protected] hadoop-yarn]# yum list |

docker中spark+scala安装配置

一.scala安装首先下载scala压缩包 wget https://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz 解压 tar -zxvf scala-2.11.7.tgz 移动目录 mv scala-2.11.7 /usr/local/ 改名 cd /usr/local/mv scala-2.11.7 scala 配置环境变量 vim /etc/profileexport SCALA_HOME=/usr/local/scalaex

ubuntu14.04中spark集群安装配置

一. Spark简介 Spark是一个通用的并行计算框架,由UCBerkeley的AMP实验室开发.Spark基于map reduce 算法模式实现的分布式计算,拥有Hadoop MapReduce所具有的优点:但不同于Hadoop MapReduce的是Job中间输出和结果可以保存在内存中,从而不再需要读写HDFS,节省了磁盘IO耗时,性能比Hadoop更快. 所以,相对来说Hadoop更适合做批处理,而Spark更适合做需要反复迭代的机器学习.下面是我在ubuntu14.04中配置Spark

spark安装配置

在装spark之前先装Scala  Scala 的安装在hadoop安装配置中已经介绍了 1.下载spark安装包 下载地址如下 http://spark.apache.org/downloads.html 我选择的是 spark-1.4.1-bin-hadoop2.6.tgz  放在/root/software 解压 tar zxvf  spark-1.4.1-bin-hadoop2.6.tgz 2.配置系统环境变量 vim /etc/profile export SPARK_HOME=/ro

spark集群安装配置

spark集群安装配置 一. Spark简介 Spark是一个通用的并行计算框架,由UCBerkeley的AMP实验室开发.Spark基于map reduce 算法模式实现的分布式计算,拥有Hadoop MapReduce所具有的优点:但不同于Hadoop MapReduce的是Job中间输出和结果可以保存在内存中,从而不再需要读写HDFS,节省了磁盘IO耗时,性能比Hadoop更快. 所以,相对来说Hadoop更适合做批处理,而Spark更适合做需要反复迭代的机器学习.下面是我在ubuntu1

Hadoop2.2集群安装配置-Spark集群安装部署

配置安装Hadoop2.2.0 部署spark 1.0的流程 一.环境描写叙述 本实验在一台Windows7-64下安装Vmware.在Vmware里安装两虚拟机分别例如以下 主机名spark1(192.168.232.147),RHEL6.2-64 操作系统,usernameRoot 从机名spark2(192.168.232.152).RHEL6.2-64 操作系统,usernameRoot 二.环境准备 1.防火墙禁用.SSH服务设置为开机启动.并关闭SELINUX 2.改动hosts文件

Spark(三): 安装与配置

参见 HDP2.4安装(五):集群及组件安装 ,安装配置的spark版本为1.6, 在已安装HBase.hadoop集群的基础上通过 ambari 自动安装Spark集群,基于hadoop yarn 的运行模式. 目录: Spark集群安装 参数配置 测试验证 Spark集群安装: 在ambari -service 界面选择 “add Service",如图: 在弹出界面选中spark服务,如图: "下一步”,分配host节点,因为前期我们已经安装了hadoop 和hbase集群,按向

spark1.1.0集群安装配置

和分布式文件系统和NoSQL数据库相比而言,spark集群的安装配置还算是比较简单的: 安装JDK,这个几乎不用介绍了(很多软件都需要JDK嘛) wget http://download.oracle.com/otn-pub/java/jdk/7u71-b14/jdk-7u71-linux-x64.tar.gz?AuthParam=1416666050_dca8969bfc01e3d8d42d04040f76ff1 tar -zxvf jdk-7u71-linux-x64.tar.gz 安装sc

openfire安装配置完全教程

Java领域的IM解决方案 Java领域的即时通信的解决方案可以考虑openfire+spark+smack. Openfire是基于Jabber协议(XMPP)实现的即时通信服务器端,最新版本是3.8.1 可以到http://www.igniterealtime.org/downloads/index.jsp下载(分为windows和linux版本) 可以到http://www.igniterealtime.org/downloads/source.jsp下载源码,方便二次开发插件. Spar