Spark1.0.0 分布式环境搭建

软件版本如下:


Hostname


IP


Hadoop版本


Hadoop


功能


系统


master


192.168.119.128


1.1.2


namenode


jdk1.6+hadoop+scala2.9.3+spark1.0.0


centos4.9


slave1


192.168.119.129


1.1.2


datanode


jdk1.6+hadoop+scala2.9.3+spark1.0.0


centos4.9


slave2


192.168.119.130


1.1.2


datanode


jdk1.6+hadoop+scala2.9.3+spark1.0.0


centos4.9

1 首先搭建hadoop环境,这里不详细说,网上很多。

2 然后安装scala环境,很简单和配置jdk类似

2.1  下载scala 安装包 2.9.3

http://www.scala-lang.org/download/2.9.3.html#Software_Requirements

2.2 下载的 scala-2.9.3.tgz ftp 到master机

目录为  /home/bigdata/

2.3  进入目录  /home/bigdata/

tar -zxf scala-2.9.3.tgz

mv  scala-2.9.3  scala

/home/bigdata/scala   (配置目录)

2.4 配置环境变量(分别到3台机器配置)

vi  /etc/profile

export SCALA_HOME=/home/bigdata/scala

export PATH=$PATH:$SCALA_HOME/bin

source /etc/profile

2.5 检测是否配置成功

scala -version

Scala code runner version 2.9.3 -- Copyright 2002-2011, LAMP/EPFL

表示安装成功

2.6  远程复制到其它机:(结构目录和master一致)

scp -r  /home/bigdata/scala  [email protected]:/home/bigdata/

scp -r  /home/bigdata/scala  [email protected]:/home/bigdata/

3 配置spark

3. 1 下载spark 1.0.0   http://spark.apache.org/downloads.html

3.2  复制包到 spark-1.0.0-bin-hadoop1.tgz 中

目录为:/home/bigdata/

3.3  进入目录 /home/bigdata/

tar -zxf spark-1.0.0-bin-hadoop1.tgz

mv  spark-1.0.0-bin-hadoop1  spark-hadoop1

得到  /home/bigdata/spark-hadoop1 (配置路径)

3.4   配置用户环境变量 (分别配置3台机器)

vi  ~/.bash_profile

export SPARK_HOME=/home/bigdata/spark-hadoop1

export PATH=$PATH:$SPARK_HOME/bin

source ~/.bash_profile

3.5 在conf 中设置scala

cd  /home/bigdata/spark-hadoop1/conf

cp spark-env.sh.template spark-env.sh

vi  spark-env.sh

添加

export JAVA_HOME=/home/bigdata/jdk(Jdk安装路径)

export SCALA_HOME=/home/bigdata/scala(scala 安装路径)

3.6 复制到其它机器

scp -r /home/bigdata/spark-hadoop1 [email protected]:/home/bigdata/

scp -r /home/bigdata/spark-hadoop1 [email protected]:/home/bigdata/

4 启动hadoop集群

5 启动spark 集群

在master 机进入目录 /home/bigdata/spark-hadoop1/sbin

sh start-all.sh

jps

5704 DataNode

6021 TaskTracker

5587 NameNode

5898 JobTracker

5810 SecondaryNameNode

6374 Worker

6457 Jps

6239 Master

6 启动web访问页面  http://master:8080/

进入 /home/bigdatat//spark-hadoop1/bin/     spark-shell

参考:点击打开链接

Spark1.0.0 分布式环境搭建

时间: 2024-11-05 13:41:36

Spark1.0.0 分布式环境搭建的相关文章

_00014 hadoop-2.2.0 伪分布式环境搭建

http://passport.baidu.com/?business&un=%E5%B0%8F%E5%A7%90%5F%E6%B5%B7%E5%AE%81%5F%E6%89%BE%5F#0 http://passport.baidu.com/?business&un=%E5%B0%8F%E5%A7%90%E6%B5%B7%E5%AE%81%E6%8C%89%E6%91%A9%E6%89%BE#0 http://passport.baidu.com/?business&un=%E5

spark-1.2.0 集群环境搭建

1.下载scala2.11.4版本 下载地址为:http://www.scala-lang.org/download/2.11.4.html ,也可以使用wget http://downloads.typesafe.com/scala/2.11.4/scala-2.11.4.tgz?_ga=1.248348352.61371242.1418807768 2.解压和安装: 解压 :[[email protected] scala]$ tar -xvf scala-2.11.4.tgz  ,安装:[

在Win7虚拟机下搭建Hadoop2.6.0伪分布式环境

近几年大数据越来越火热.由于工作需要以及个人兴趣,最近开始学习大数据相关技术.学习过程中的一些经验教训希望能通过博文沉淀下来,与网友分享讨论,作为个人备忘. 第一篇,在win7虚拟机下搭建hadoop2.6.0伪分布式环境. 1. 所需要的软件 使用Vmware 11.0搭建虚拟机,安装Ubuntu 14.04.2系统. Jdk 1.7.0_80 Hadoop 2.6.0 2. 安装vmware和ubuntu 略 3. 在ubuntu中安装JDK 将jdk解压缩到目录:/home/vm/tool

MiS603开发板 第十章 USB2.0 CY7C68013A 开发环境搭建

作者:MiS603开发团队 日期:20150911 公司:南京米联电子科技有限公司 论坛:www.osrc.cn 网址:www.milinker.com 网店:http://osrc.taobao.com EAT博客:http://blog.chinaaet.com/whilebreak 博客园:http://www.cnblogs.com/milinker/ MiS603开发板 第十章 USB2.0 CY7C68013A 开发环境搭建   CY7C68013A是Cypress公司推出的稳定,易

【Cocos2D-X 学习笔记】Cocos2D-x 3.0+VS开发环境搭建[使用Python]

上一节讲了如何用VS自带的项目管理器创建项目,该方法只适用于cocos2d-x 2.0版本,而cocos2d-x 3.0较之前版本在命名等方面有了较大更新,而cocos2d-x3.0不再支持用VS项目管理器自建项目,而是用Python脚本创建项目. 为什么做这种改变?经过上一节讨论可以发现,使用VS创建项目有一个缺陷:新建的项目必须在cocos2d-x的解决方案中,这样会导致自己的项目和Template项目混淆:如果想单独创建一个项目的话,又需要把cocos2d-x包中的cocos2d文件整个拷

cocos2d-x 3.0正式版 环境搭建 (解决载入失败,未能载入XXX包)

cocos2d-x 3.0正式版最终公布了~ 等了好久~ 废话不多说,直接写方法. 1.下载安装vc2012 ,我用的是旗舰版,传送门:点击打开链接 2.下载cocos2d-x 3.0正式版,传送门:点击打开链接 3.下载安装python,传送门:点击打开链接 4.设置环境变量好后,打开cocos2d-x安装文件夹下build/cocos2d-win32.vc2012.sln,又一次生成解决方式就OK了. **假设出现了vc2012项目载入失败,提示未能载入XXXX包*,下载vc2012KB27

一、Hadoop伪分布式环境搭建

Hadoop 2.x伪分布式环境搭建步骤: 1.修改hadoop-env.sh.yarn-env.sh.mapred-env.sh 方法:使用notepad++(beifeng用户)代开这三个文件 添加代码:export JAVA_HOME=/opt/modules/jdk1.7.0_67 2.修改core-site.xml.hdfs-site.xml.yarn-site.xml.mapred-site.xml配置文件 1)修改core-site.xml <configuration> <

【转】Hadoop HDFS分布式环境搭建

原文地址  http://blog.sina.com.cn/s/blog_7060fb5a0101cson.html Hadoop HDFS分布式环境搭建 最近选择给大家介绍Hadoop HDFS系统,因此研究了一下如何在Linux 下配置一个HDFS Clust.小记一下,以备将来进一步研究和记忆. HDFS简介 全称 Hadoop Distributed File System, Hadoop分布式文件系统. 根据Google的GFS论文,由Doug Cutting使用JAVA开发的开源项目

HBase 分布式环境搭建

HBase 分布式环境搭建 一.前期环境 安装概览 IP Host Name Software Node 192.168.23.128 ae01 JDK 1.7, Zookeeper-3.4.5 HMaster 192.168.23.129 ae02 JDK 1.7, Zookeeper-3.4.5    HRegionServer 192.168.23.130 ae03 JDK 1.7, Zookeeper-3.4.5 HRegionServer    若使用虚拟机安装,可以安装samba,