安装HBase 0.94.6-cdh4.3.0

安装HBase 0.94.6-cdh4.3.0

设定HBase的配置文件,由于安装的是cdh版,各版本直接匹配,互相依赖的jar包也都正确,只需要配置下hbase的环境变量和配置文件即可。

1.配置hbase-env.sh,添加JAVA_HOME环境变量

[html] view
plain
copy

  1. export JAVA_HOME=/usr/java/default/  其他暂时不用添加
  2. export HBASE_MANAGES_ZK=true

2.修改hbase-site.xml,如下配置

[html] view
plain
copy

  1. <property>
  2. <name>hbase.rootdir</name>
  3. <value>hdfs://master:8020/hadoop/hbase</value>
  4. </property>
  5. <property>
  6. <name>hbase.master</name>
  7. <value>master:60000</value>
  8. </property>
  9. <property>
  10. <name>hbase.zookeeper.quorum</name>
  11. <value>192.168.195.19</value>
  12. </property>
  13. <property>
  14. <name>hbase.zookeeper.property.dataDir</name>
  15. <value>/hadoop/zookeeper</value>
  16. </property>
  17. <property>
  18. <name>hbase.cluster.distributed</name>
  19. <value>true</value>
  20. </property>

3.配置regionservers文件,添加数据节点DataNode的ip地址,也即是regionservers:

192.168.195.201

192.168.195.202

在测试hbase过程中,需要查看日志,所以编写了清理日志的脚本clear_hbase_logs.sh,如下:

[html] view
plain
copy

  1. rm -fr  /opt/cdh4.5/hbase-0.94.6-cdh4.5.0/logs/*
  2. ssh slave1 "rm -fr /opt/cdh4.5/hbase-0.94.6-cdh4.5.0/logs/*"
  3. ssh slave2 "rm -fr /opt/cdh4.5/hbase-0.94.6-cdh4.5.0/logs/*"
  4. rm -fr  /hadoop/hbase/*
  5. tree /hadoop/hbase

安装HBase 0.94.6-cdh4.3.0,布布扣,bubuko.com

时间: 2024-12-23 16:17:48

安装HBase 0.94.6-cdh4.3.0的相关文章

phoenix 3.1 + hbase 0.94.21 的安装和使用

Apache Phoenix 是 HBase 的 SQL 驱动.Phoenix 使得 HBase 支持通过 JDBC 的方式进行访问,并将你的 SQL 查询转成 HBase 的扫描和相应的动作. 兼容性: Phoenix 2.x - HBase 0.94.x Phoenix 3.x - HBase 0.94.x Phoenix 4.x - HBase 0.98.1+ 1:hbase 0.94.21 的安装 参考http://blog.csdn.net/wind520/article/detail

CDH4.5.0下安装snappy

编译源代码 http://www.cnblogs.com/chengxin1982/p/3862289.html 测试参考 http://blog.jeoygin.org/2012/03/java-compression-library-test.html1 snappy参考地址 http://sstudent.blog.51cto.com/7252708/1405485(主) http://wzxwzx2011.blog.51cto.com/2997448/1111619 snappy库: w

Hadoop1.0.4+Hbase0.94.2+Hive0.9.0 分布式部署安装

因为个人太懒,所以很多配图没有上传,完整的部署安装教程另外备份了.这里记录一下防止文档丢了   Hadoop1.0.4+Hbase0.94.2+Hive0.9.0 分布式部署安装 目录 1 服务器配置 2 Hadoop安装 3 Hbase安装 4 Hive安装 版本控制信息 版本 日期 拟稿和修改 说明 1.0 2012-11-27 Yoan.Liang 报文标准初稿(内部版本:1000) 1       服务器配置 1.1    下载安装JDK 1.2    修改NameNode与DataNo

通过tarball形式安装HBASE Cluster(CDH5.0.2)——配置分布式集群中的YARN ResourceManager 的HA

<?xml version="1.0"?> <!-- Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses

通过tarball形式安装HBASE Cluster(CDH5.0.2)系列随笔

本系列文章只是记录了笔者本人在学习实验安装和使用基于CDH5.0.2的HBASE集群过程中的一些经验教训和心得,绝不是详细的安装过程,因本人不过一初学者,很多方面不甚了了,如果能让不幸读到的人有所得则不胜欣喜,否则大家一笑置之即可. 通过tarball形式安装HBASE Cluster(CDH5.0.2)——集群安装总览 通过tarball形式安装HBASE Cluster(CDH5.0.2)——如何配置分布式集群中的zookeeper 通过tarball形式安装HBASE Cluster(CD

Hbase 0.96 比 hbase 0.94的改变

转载:http://blog.csdn.net/hxpjava1/article/details/20043703 环境: hadoop:hadoop-2.2.0 hbase:hbase-0.96.0 1.org.apache.hadoop.hbase.client.Put     <1>取消了无参的构造方法     <2>Put类不再继承Writable类              0.94.6时public class Put extends Mutation implemen

CDH5.0.2安装HBase Phoenix4.2

由于目前公司大量的数据存储在HBase中,各个业务线需要对HBase进行即时查询,但是又不方便实现自己的基于HBase Client的API的数据访问实现,他们希望能够像Hive对HDFS中的数据进行ETL一样,可以对HBase中的数据进行SQL操作 我们最初考虑的方式是Hive On HBase,这样主要思想是将数据存储在HBase中,设置一张Hive表,关联HBae中的数据,具体原理如 http://www.blogjava.net/ivanwan/archive/2011/01/10/34

通过tarball形式安装HBASE Cluster(CDH5.0.2)——如何配置分布式集群中的zookeeper

集群安装总览参见这里 Zookeeper的配置 1,/etc/profile中加入zk的路径设置,见上面背景说明. 2,进入~/zk/conf目录,复制zoo_sample.cfg为zoo.cfg vim zoo.conf tickTime=2000 initLimit=10 syncLimit=5 dataDir=/home/hadoop/hdfs/zk/data dataLogDir=/home/hadoop/hdfs/zk/log clientPort=2181 server.21=zk1

Nutch 2.x + Hadoop 2.5.2 + Hbase 0.94.26

一开始运行Nutch 2.x 总是报下面这个错误: java.lang.IncompatibleClassChangeError: Found interface org.apache.hadoop.mapreduce.Counter, but class was expected 这个问题足足折腾了2天,查了无数资料,始终不能解决问题,虽然问题定位在Nutch 编译的时候使用了Hadoop 1.x,然后运行的时候是在Hadoop 2.x上,但是始终找不到到底什么时候依赖了hadoop-core