搭建Hbase和Spark环境

前期准备:

  1.默认已经搭建好了hadoop环境(我的hadoop版本是2.5.0)

  2.这里我用的Hbase是0.98.6,spark是1.3.0

一、搭建Hbase

  1、上传Hbase安装包,将/opt/software下的hbase安装包解压到/opt/app目录下

  2、进入hbase目录下,修改配置文件

     1>修改hbase-env.sh文件

        将export  JAVA_HOME = 你的Java安装路径,我的路径是/opt/app/jdk1.7.0_79

        所以改完后是 export  JAVA_HOME=/opt/app/jdk1.7.0_79

     2>修改hbase-site.xml文件,改成以下内容

      

      说明:

        这里hadoop.spark.com是我的主机名,如果大家没有配置ip地址映射的话,这里就应该是你ip地址

        这里hbase.zookeeper.quorum的值是zookeeper所在的机器,我这里是伪分布式,所以还是我的主机名

    3>修改regionservers文件

       将localhost  替换成  你的主机名(已经配置ip地址映射)或者ip地址

     至此,Hbase环境搭建完成

二、搭建Spark

  1.首先安装scala

    1>上传scala安装包,将/opt/software/下的scala安装包解压到/opt/app/目录下

    2>配置scala环境变量

        切换到root用户下,编辑/etc/profile文件,在文件末尾加上环境路径

        

        

    3>重启/etc/profile文件后者重启系统

      source /etc/profile  或者 reboot

    4>检查scala安装

      scala -version

  2、安装Spark

    1>上传scala安装包,并将/opt/software目录下的scala安装包解压到/opt/app/目录下

    2>进入Spark目录下,修改配置文件

      • 将slaves.template文件重命名为slaves,并将里面的内容改成你的主机名或者你的ip地址
      • 将log4j.properties.template文件重命名为log4j.properties,里面的内容不做任何修改,这个文件是记录日志的
      • 将spark-env.template文件重命名为spark-env,修改成以下:

         

           

          注意:这里SPARK_HISTORY_OPTS=......,要一行写完,我这里是为了演示,所以分两行写

      • 将spark-default.conf.template文件重命名为spark-default.conf,修改完成后内容如下

          

      至此,spark环境搭建成功了

时间: 2024-08-26 19:53:02

搭建Hbase和Spark环境的相关文章

hbase本地调试环境搭建

1,前言 想要深入的了解hbase,看hbase源码是必须的.以下描述了搭建hbase本地调试环境的经历 2,安装步骤 2.1,启动hbase 1,安装java和IDE IntelliJ,下载源码等.步骤这里不再描述. 2,从HMaster以standalone模式启动hbase,配置如下: 主要是程序参数start,VM options(-Dlog4j.configuration=file:/Users/aaa/work/dev/hbase/hbase-1.1.3/conf/log4j.pro

大数据学习系列之六 ----- Hadoop+Spark环境搭建

引言 在上一篇中 大数据学习系列之五 ----- Hive整合HBase图文详解 : http://www.panchengming.com/2017/12/18/pancm62/ 中使用Hive整合HBase,并且测试成功了.在之前的大数据学习系列之一 ----- Hadoop环境搭建(单机) : http://www.panchengming.com/2017/11/26/pancm55/ 中成功的搭建了Hadoop的环境,本文主要讲的是Hadoop+Spark 的环境.虽然搭建的是单机版,

搭建scala 开发spark程序环境及实例演示

上一篇博文已经介绍了搭建scala的开发环境,现在进入正题.如何开发我们的第一个spark程序. 下载spark安装包,下载地址http://spark.apache.org/downloads.html(因为开发环境需要引用spark的jar包) 我下载的是spark-2.1.0-bin-hadoop2.6.tgz,因为我的scalaIDE版本是scala-SDK-4.5.0-vfinal-2.11-win32.win32.x86_64.zip 最好,IDE版本和spark版本要匹配,否则,开

【甘道夫】Eclipse+Maven搭建HBase开发环境及HBaseDAO代码示例

环境: Win764bit Eclipse Version: Kepler Service Release 1 java version "1.7.0_40" 第一步:Eclipse中新建Maven项目,编辑pom.xml并更新下载jar包 <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance&qu

Spark环境搭建(一)-----------HDFS分布式文件系统搭建

spark 环境搭建 下载的压缩文件放在~/software/    解压安装在~/app/ 一:分布式文件系统搭建HDFS 1,下载Hadoop HDFS环境搭建    使用版本:hadoop-2.6.0-cdh5.7.0 下载:wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.7.0.tar.gz 解压:tar http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cd

HBase二次开发之搭建HBase调试环境,如何远程debug HBase源代码

版本 HDP:3.0.1.0 HBase:2.0.0 一.前言 之前的文章也提到过,最近工作中需要对HBase进行二次开发(参照HBase的AES加密方法,为HBase增加SMS4数据加密类型).研究了两天,终于将开发流程想清楚并搭建好了debug环境,所以就迫不及待地想写篇文章分享给大家. 二.思路 首先看到这个需求,肯定是需要先实现HBase配置AES加密<HBase配置AES加密>,或者还可以再继续了解实现SMS4加密算法<Java版SMS4加密解密算法>.等到这些都完成之后

CDH5上安装Hive,HBase,Impala,Spark等服务

Apache Hadoop的服务的部署比较繁琐,需要手工编辑配置文件.下载依赖包等.Cloudera Manager以GUI的方式的管理CDH集群,提供向导式的安装步骤.由于需要对Hive,HBase,Impala,Spark进行功能测试,就采用了Cloudera Manager方式进行安装. Cloudera Manager提供两种软件包安装源,Package 和 Parcel: Package就是一个个rpm文件,以yum的方式组织起来. Parcel是rpm包的压缩格式,以.parcel结

linux集群spark环境配置

第一章 linux集群spark环境配置一 Spark下载地址; http://spark.apache.org/downloads.html 图1 下载spark 图2 选择下载地址 Spark本身用scala写的,运行在JVM之上.JAVA版本:java 6 /higher edition.Jdk已经安装(版本) Hadoop提供存储数据的持久化层版本:hadoop-1.2.1Spark和scala需要安装在master和slave上面,配置步骤相同本次搭建的master为cluster,s

用 Apache 和 Subversion 搭建安全的版本控制环境

用 Apache 和 Subversion 搭建安全的版本控制环境 作为新一代的开源版本控制工具,Subversion 以其目录版本化.原子提交.版本化的元数据.更加有效的分支和标签等优良特性,正逐渐受到开源软件社区的重视,并有望取代 CVS,成为开源软件开发中版本控制的首选系统.在服务端,Subversion 最大的独特之处,在于它可以通过一个扩展模块与 Apache 的HTTP 服务器相结合,实现很多高级的管理功能和安全特性.与 CVS 相比,Subversion 实现了更加先进和安全的用户