基于Hadoop2.6的Spark1.2单机安装

一,安装环境 
硬件:虚拟机 
操作系统:Centos 6.4 64位 
IP:10.51.121.10 
主机名:datanode-4 
安装用户:root 
Hadoop:Hadoop2.6,Hadoop2.6的单机安装请见:http://www.cnblogs.com/zouzhongfan/p/4309405.html
Hive:Hive0.13,Hive0.13的安装请见:http://www.cnblogs.com/zouzhongfan/p/4309432.html

二,安装Scala 
1,到http://www.scala-lang.org/download/ 下载与Spark版本对应的Scala。Spark1.2对应于Scala2.10的版本。这里下载scala-2.10.4.tgz。 
2,解压安装Scala 
1), 执行#tar -axvf scala-2.10.4.tgz,解压到/root/spark/scala-2.10.4。 
2),在~/.bash_profile中添加如下配置:

export SCALA_HOME=/root/spark/scala-2.10.4
export PATH=$JAVA_HOME/bin$HADOOP_HOME/bin:$HIVE_HOME/bin:$SCALA_HOME/bin:$PATH

3),使环境变量生效,#source ~/.bash_profile 
3,验证安装,在命令行中输入scala命令,可以进入scala命令控制台。

# scala
Welcome to Scala version 2.10.4 (Java HotSpot(TM) 64-Bit Server VM, Java 1.6.0_45).
Type in expressions to have them evaluated.
Type :help for more information.

scala> 

三,安装Spark 
1,到http://spark.apache.org/downloads.html下载spark-1.2.0-bin-hadoop2.4.tgz,解压到/root/spark/spark-1.2.0-bin-hadoop2.4。 
2,在.bash_profile中添加如下配置:

export SPARK_HOME=/root/spark/spark-1.2.0-bin-hadoop2.4
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin:$HIVE_HOME/bin:$PATH

3,使环境变量生效,#source ~/.bash_profile

四,配置Spark 
1,进入Spark的配置文件路径,#cd $SPARK_HOME/conf 
2,执行,#cp spark-env.sh.template spark-env.sh 
3,在spark-env.sh文件中添加如下配置:

export JAVA_HOME=/usr/lib/jdk1.6.0_45
export SCALA_HOME=/root/spark/scala-2.10.4
export HADOOP_CONF_DIR=/root/hadoop/hadoop-2.6.0/etc/hadoop

五,启动Spark 
1,进入spark的安装路径,#cd /root/spark/spark-1.2.0-bin-hadoop2.4 
2,执行#./sbin/start-all.sh命令 
3,执行 #jps命令,会有Master和Worker进程

# jps
38907 RunJar
39030 RunJar
54679 NameNode
26587 Jps
54774 DataNode
9850 Worker
9664 Master
55214 NodeManager
55118 ResourceManager
54965 SecondaryNameNode

4,进入Spark的Web界面:http://datanode-4:8080/ 

5,执行,#./bin/spark-shell命令,可以进入Spark的shell环境,可以通过http://datanode-4:4040,看到SparkUI的情况。 

时间: 2024-10-13 04:32:12

基于Hadoop2.6的Spark1.2单机安装的相关文章

基于Mysql的Hive0.13单机安装

一,安装环境 硬件:虚拟机 操作系统:Centos 6.4 64位 IP:10.51.121.10 主机名:datanode-4 安装用户:root Hadoop:Hadoop2.6,Hadoop2.6的单机安装请见:http://www.cnblogs.com/zouzhongfan/p/4309405.html 二,安装Mysql 1,到http://dev.mysql.com/downloads/repo/yum/ 下载mysql-community-release-el6-5.noarc

Ubuntu下hadoop2.4搭建集群(单机模式)

一  .新建用户和用户组 注明:(这个步骤其实可以不用的,不过单独使用一个不同的用户好一些) 1.新建用户组 sudo addgroup hadoop 2.新建用户 sudo adduser -ingroup hadoop hadoop 3.添加hadoop用户权限 sudo gedit /etc/sudoers 打开sudoer文件后添加hadoop用户 # User privilege specification root ALL=(ALL:ALL) ALL hadoop ALL=(ALL:

Hadoop 2.2.0部署安装(笔记,单机安装)

SSH无密安装与配置 具体配置步骤: ◎ 在root根目录下创建.ssh目录 (必须root用户登录) cd /root & mkdir .ssh chmod 700 .ssh & cd .ssh ◎ 创建密码为空的 RSA 密钥对: ssh-keygen -t rsa -P "" ◎ 在提示的对称密钥名称中输入 id_rsa将公钥添加至 authorized_keys 中: cat id_rsa.pub >> authorized_keys chmod 6

Flume单机安装与配置

下载 apache-flume-1.6.0-bin.tar.gz 解压 tar -zxvf apache-flume-1.6.0-bin.tar.gz 配置 cp conf/flume-conf.properties.template conf/flume-conf.properties cp conf/flume-env.sh.template conf/flume-env.sh flume-env.sh # Enviroment variables can be set here. expo

基于CDH5.4的Spark1.4.1下SparkR的部署

[Author]: kwu (和讯大数据) 基本CDH5.4的Spark1.4.1下SparkR的部署,R与Spark的结合为数据分析提供高效的解决方案,Hadoop的中hdfs为数据分析提供分布式存储.本文介绍集成安装的步骤: 1.集群的环境 CDH5.4+Spark1.4.1 配置环境变量 #java export JAVA_HOME=/usr/java/jdk1.7.0_67-cloudera export JAVA_BIN=$JAVA_HOME/bin export CLASSPATH=

centos6.8单机安装HBase

hadoop生态系统 HBase简介–HBase–HadoopDatabase,是一个高可靠性.高性能.面向列.可伸缩.实时读写的分布式数据库–利用HadoopHDFS作为其文件存储系统,利用HadoopMapReduce来处理HBase中的海量数据,利用Zookeeper作为其分布式协同服务 (1)安装的前提条件 此安装是在阿里云服务器上安装的,且java环境已经配好,hadoop和zookeeper都已经安装好并成功启动 (2)下载hbase-1.1.3-bin.tar.gz,上传并解压 进

redis的单机安装与配置以及生产环境启动方案

简单介绍一下redis的单机安装与配置,方便自己记录安装步骤的同时方便他人获取知识. 首先,从官网下载最新版的(稳定版)的redis安装包.官网地址如下:https://redis.io/download 下载源码包后,redis需要编译安装.需要安装gcc和tcl,gcc用于编译tcl用于测试. 使用命令安装gcc,yum install gcc,一路选择yes,gcc就可以安装成功. 接下来安装tcl,首先获取tcl源码包(见百度云盘)或者使用命令:wget http://downloads

unix(mac)单机安装neo4j

单机版安装 单机安装十分简单: 1)将neo4j的community版本下载完毕后,进行解压,运行的命令是:tar –zvxf neo4j-community-2.0.1.tar.gz 2)修改conf/neo4j-server.properties配置文件,将org.neo4j.server.webserver.address=0.0.0.0注释字符去掉 3)最后进入bin目录,启动neo4j的服务即可. 4) 输入 http://ip:7474/webadmin 即可进入neo4j控制台 集

1.1 Zookeeper单机安装

zookeeper 单机安装配置 1.安装前准备 linux系统(此文环境为Centos6.5) Zookeeper安装包,官网https://zookeeper.apache.org/,演示版本zookeeper-3.4.7.tar.gz 2.解压:tar -zxvf zookeeper-3.4.7.tar.gz 3.修改配置文件 cd zookeeper-3.4.7/conf cp zoo_sample.cfg zoo.cfg 复制模板配置文件为zoo.cfg vim zoo.cfg 修改配