HBase - 伪分布式安装过程

环境

  - hadoop

  - 没有zookeeper(用hbase自带的zookeeper,当然后期我会改用独立的zookeeper)

HBase介绍

  参考:hbase是什么?

hbase下载

  地址:http://mirrors.shu.edu.cn/apache/hbase/stable/

  我选的是 hbase-1.4.8-bin.tar.gz

  解压,将文件放到 /usr/local/hbase下

安装(配置文件)

  1 - .bashrc(可有可无,为了以后操作方便我配置了)

  添加 $HBASE_HOME 环境变量

  cd ~
  vi .bashrc

  export $HBASE_HOME=/usr/local/hbase
  export PATH=$PATH:$HBASE_HOME/bin

  2 - hbase.env.sh (/usr/local/hbase/conf)

  cd /usr/local/hbase/conf
  vi hbase-env.sh

  export JAVA_HOME=..........    //jdk路径
  export HBASE_MANAGES_ZK=true    //使用hbase自带的zookeeper

  3 - hbase.site.xml(/usr/local/hbase/conf)

  cd /usr/local/hbase/conf
  vi hbase-site.xml

  添加内容

  <configuration>    <property>       <name>hbase.rootdir</name>       <value>hdfs://Kouri(localhost,127.0.0.1):9000/hbase</value>   //hbase依赖到hdfs上 - 可以在hdfs上查看到文件夹     </property>     <property>       <name>hbase.cluster.distributed</name>  //使用分布式       <value>true</value>     </property>     <property>       <name>hbase.zookeeper.property.dataDir</name>       <value>/usr/local/hbase/data/zookeeper</value>     </property>     <property>       <name>hbase.zookeeper.quorum</name>  //启动zk的服务器列表,分布式下必配       <value>Kouri</value>     </property>     <property>       <name>hbase.zookeeper.property.clientPort</name>  //client链接zookeeper端口,默认2181       <value>2182</value>     </property>  </congiguration>

启动(先启动hadoop)

  start-hbase.sh

关闭

stop-hbase.sh

查看进程

jps

出现:HMaster,HQuorumPeer,HRegionServer

相关演示

  查看hbase在hdfs中情况

  hdfs dfs -ls /hbase

  启动hbase shell

  hbase shell

  HBase的Web界面

  http://localhost:16010  - hbase 1...版本后

HBase 入坑有关解决

  可参考另一篇:坑人的HBase!!!

X

原文地址:https://www.cnblogs.com/floakss/p/9784318.html

时间: 2024-12-11 16:28:31

HBase - 伪分布式安装过程的相关文章

Hbase伪分布式安装

前面的文章已经讲过hadoop伪分布式安装,这里直接介绍hbase伪分布式安装. 1. 下载hbase 版本hbase 1.2.6 2. 解压hbase 3. 修改hbase-env.sh 新增如下内容 export JAVA_HOME=/home/cauchy/software/jdk export HADOOP_HOME=/home/cauchy/software/hadoop export HBASE_HOME=/home/cauchy/software/hbase export HBAS

HBase伪分布式安装及简单使用

HBase是Hadoop的数据库,基于Hadoop运行,是一种NoSQL数据库. 特点:分布式.多版本.面向列的存储模型,能够大规模的数据实时随机读写,可直接使用本地文件系统. 不适合:与关系型数据库相比,模型简单,API很少:不适合小规模的数据. 数据存放的位置叫做单元(cell),其中的数据可以有多个版本,根据时间戳(timestamp)来区别. 安装: tar xfz hbase-0.94.18.tar.gz cd hbase* cd conf vi hbase-env.sh export

HBase基础和伪分布式安装配置

一.HBase(NoSQL)的数据模型 1.1 表(table),是存储管理数据的. 1.2 行键(row key),类似于MySQL中的主键,行键是HBase表天然自带的,创建表时不需要指定 1.3 列族(column family),列的集合. 一张表中有多个行健,一个行健读取出来的是一条记录,列族和MySQL中的列差不多,但是它是列的集合 HBase中列族是需要在定义表时指定的,列是在插入记录时动态增加的. HBase表中的数据存储在本地磁盘上的时候,每个列族单独一个作为文件存储. 上图表

Hadoop学习笔记_4_实施Hadoop集群 --伪分布式安装

实施Hadoop集群 --伪分布式安装 准备与配置安装环境 安装虚拟机和linux,虚拟机推荐使用vmware,PC可以使用workstation,服务器可以使用ESXi,在管理上比较方便.ESXi还可以通过拷贝镜像文件复制虚拟机,复制后自动修改网卡号和ip,非常快捷.如果只是实验用途,硬盘大约预留20-30G空间. 以Centos为例,分区可以选择默认[如果想要手动分区,请参考博客:http://blog.csdn.net/zjf280441589/article/details/175485

HBase完全分布式安装以及Hive远程模式(mysql作为数据库)的安装

各位真的不好意思.上次的博文有误.上次的应该是HBase的伪分布式安装.这次本人保证是完全分布式安装. 首先是HBase的完成分布式安装.这次部署的环境是hadoop-1.2.1+hbase-0.98.X.因为这个版本的HBase是直接对应hadoop-1.2.1,故也就省去了覆盖jar包的步骤以及排除了覆盖带来的不稳定性.OK,下载后解压,进入conf目录,配置hbase-env.sh文件.如图.这里HBASE_CLASSPATH是指向hadoop的conf目录的,这点需要注意. 下面是打开z

2018-08-13期 Hbase伪分布模式安装部署

说明: Hbase部署模式有以下三种 (1)本地模式:本地模式不依赖于HDFS存储,将文件存储到操作系统本地目录,好处是我们不需要搭建HDFS集群,即可学些HBase相关命令及客户端操作. (2)伪分布模式:一台机器完成Hbase所有组件的配置,需要依赖HDFS分布式存储 (3)全分布模式:多机部署,一般情况下Hmaster和HregionServer分布在不同的服务器,需要依赖底层HDFS分布式存储. 一.安装介质 hbase-0.96.2-hadoop2-bin.tar.gz 二.安装JDK

伪分布式安装core-site.xml和hdfs-site.xml配置文件

hadoop的伪分布式安装流程如下所示: 其中core-site.xml和hdfs-site.xml是两个很重要的配置文件. core-site.xml <configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> <description>Abase for other temporary

Zookeeper 初体验之——伪分布式安装(转)

原文地址: http://blog.csdn.net/salonzhou/article/details/47401069 简介 Apache Zookeeper 是由 Apache Hadoop 的 Zookeeper 子项目发展而来,现在已经成为了 Apache 的顶级项目.Zookeeper 为分布式系统提供了高效可靠且易于使用的协同服务,它可以为分布式应用提供相当多的服务,诸如统一命名服务,配置管理,状态同步和组服务等.Zookeeper 接口简单,开发人员不必过多地纠结在分布式系统编程

吴超老师课程---hadoop的分布式安装过程

1.hadoop的分布式安装过程 1.1 分布结构 主节点(1个,是hadoop0):NameNode.JobTracker.SecondaryNameNode            从节点(2个,是hadoop1.hadoop2):DataNode.TaskTracker    1.2 各节点重新产生ssh加密文件    1.3 编辑各个节点的/etc/hosts,在该文件中含有所有节点的ip与hostname的映射信息    1.4 两两节点之间的SSH免密码登陆            ss