hbase-0.98整合hadoop-2.6,附java操作代码

cd /opt/hbase-0.98.13-hadoop2/conf

vi hbase-env.sh

export JAVA_HOME=/opt/jdk1.7.0_75

vi hbase-site.xml

<!--设置hbase根目录,master为机器的hostname-->
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>

<!--完全分布式模式-->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>

<!--配置zookeeper集群地址-->

<property>
<name>hbase.zookeeper.quorum</name>
<value>master</value>
</property>

<!--配置zookeeper数据存放位置-->

<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/zookeeper-3.4.6/tmp/data</value>
</property>

启动

/opt/hbase-0.98.13-hadoop2/bin/start-hbase.sh

进入shell

/opt/hbase-0.98.13-hadoop2/bin/hbase shell

hbase shell的一些基础命令,参考

http://my.oschina.net/u/877759/blog/341354

java操作hbase的一些封装代码,用的是gradle进行管理,可直接运行

https://github.com/chenmiao2/hbaseDemo

时间: 2024-10-07 18:46:52

hbase-0.98整合hadoop-2.6,附java操作代码的相关文章

hadoop2 hive0.13.0 hbase 0.98.2版本集成错误总结

一. hadoop2.2.0的安装启动错误总结 关于hadoop在启动时datanode无法启动问题 1.core-site.xml文件中没有配置从节点 2.slave配置文件中没有添加从节点 3.所有节点的host链表不统一或有错位 4.因为多次formate namenode造成namenode和datanode的clusterID不一致 解决方案: 删除所有节点/home/hadoop/hadoop-2.2.0/dfs/data/下 curren目录 <name>hadoop.tmp.d

hbase 0.98.1集群安装

本文将基于hbase 0.98.1解说其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:http://blog.csdn.net/bluishglc/article/details/24593597,转载请注明出处. 1. 安装与配置 1.1. 前置条件 确保已经安装了hadoop并保证hadoop运行正常.关于hbase与hadoop的版本号依赖关系,请參考:  https://hbase.apache.org/book/configuration.html#hado

在Eclipse上建立hbase 0.98.3/0.96.2源代码阅读环境

2.1. 切换到源代码目录,执行: mvn install -DskipTests -Dhttp.proxyHost=proxy01.cd.intel.com -Dhttp.proxyPort=911 黄色部分作用为设置代理.由于本人的编译环境在公司内网,所以需要设置代理 2.2. 生成eclipse项目环境: mvn eclipse:eclipse -DskipTests -Dhttp.proxyHost=proxy01.cd.intel.com -Dhttp.proxyPort=911 2.

Hadoop 2.5.1 + HBase 0.98 单机

Package path: [email protected]:~/something/download ===================================================================== 1 安装环境 代码: sudo apt-get install openssh-server  sudo apt-get install default-jdk 2 安装hadoop 代码: wget http://mirror.ox.ac.uk/sit

Spark 1.1.0 编译(为了支持hbase 0.98.6)

为了支持hbase0.98.6,需要重新编译spark 1. 下载spark 1.1.0源代码,以及 scala-2.10.4的bin包. 将环境变量 SCALA_HOME 设置为 scala-2.10.4 的目录位置. 2. 下载较新的pom.xml (https://github.com/tedyu/spark) 将该repository中的 spark/pom.xml和spark/examples/pom.xml下载下来,覆盖至用于编译的spark源代码中. 3. 进入源代码目录编译 ex

HBASE 0.98版本安装,一步曲:编译HADOOP 2.2.0 x64版本

1.安装JDK 下载JDK 7u55版本,安装JDK和JRE都需要,JDK里面有tools.jar,这个jar包是一定需要的安装在/java上 2.下载Hadoop 2.2.0源代码 wget http://apache.dataguru.cn/hadoop/common/stable/hadoop-2.2.0-src.tar.gz解压缩tar zxvf hadoop-2.2.0-src.tar.gz -C /tmp 3.安装依赖包 yum -y install lzo-devel zlib-d

HBASE 0.98版本安装,二步曲:安装HADOOP到集群

1.准备4台服务器 一台作为namenode 192.168.137.101 hd1 三台作为datanode 192.168.137.102 hd2192.168.137.103 hd3192.168.137.104 hd4 2.拉平所有服务器的时间 使用ntpdate 略 3.配置多机互信 略 4.解压hadoop tar zxvf hadoop-2.2.0.tar.gz 5.移动hadoop到相应位置 mv hadoop-2.2.0 /home/hadoop/hadoop 6.在namen

HBASE 0.98版本安装,四步曲:安装HBAES 0.98

1.下载hbase-0.98.2-hadoop2-bin.tar.gz 2.解压缩 3.挪动hbase到相应的位置去/home/hadoop/hbase 4.配置hbase /home/hadoop/hbase/conf/hbase-site.xml <property> <name>hbase.rootdir</name> <value>hdfs://hd1:9000/hbase</value> </property> <pr

HBASE 0.98版本安装,三步曲:安装Zookeeper 3.4.5

1.下载zookeeper 3.4.5 2.解压 3.挪到合适的位置 /home/hadoop/zookeeper 4.设置一个zookeeper放置数据的位置 /home/hadoop/zk 5.修改zookeeper配置文件 vim /home/hadoop/zookeeper/conf/zoo.cfg tickTime=2000initLimit=10syncLimit=5dataDir=/home/hadoop/zkclientPort=2181 server.1=hd1:2888:38