安装hbase-0.98.9-hadoop2

1. download http://124.202.164.13/files/1244000005C563FC/www.eu.apache.org/dist/hbase/stable/hbase-0.98.9-hadoop2-bin.tar.gz

2. copy to /opt

3. cp /opt

tar -zxvf hbase-0.98.9-hadoop2-bin.tar.gz

4. edit conf/hbase-site.xml

 

<configuration>
      <property>
        <name>hbase.rootdir</name>
        <!--value>file:///opt/hbase/testdata</value-->
        <value>hdfs://localhost:9000/hbase</value>
      </property>
      <property>
       <name>hbase.zookeeper.property.dataDir</name>
       <value>/opt/hbase/testdata/zookeeper</value>
      </property>
      <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
      </property>
</configuration>

  

5. edit conf/hbase-env.sh

export JAVA_HOME=/opt/jdk17

6. start hbase

bin/start-hbase.sh

  

 
时间: 2024-08-04 14:49:42

安装hbase-0.98.9-hadoop2的相关文章

hadoop2 hive0.13.0 hbase 0.98.2版本集成错误总结

一. hadoop2.2.0的安装启动错误总结 关于hadoop在启动时datanode无法启动问题 1.core-site.xml文件中没有配置从节点 2.slave配置文件中没有添加从节点 3.所有节点的host链表不统一或有错位 4.因为多次formate namenode造成namenode和datanode的clusterID不一致 解决方案: 删除所有节点/home/hadoop/hadoop-2.2.0/dfs/data/下 curren目录 <name>hadoop.tmp.d

hbase 0.98.1集群安装

本文将基于hbase 0.98.1解说其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:http://blog.csdn.net/bluishglc/article/details/24593597,转载请注明出处. 1. 安装与配置 1.1. 前置条件 确保已经安装了hadoop并保证hadoop运行正常.关于hbase与hadoop的版本号依赖关系,请參考:  https://hbase.apache.org/book/configuration.html#hado

安装HBase 0.94.6-cdh4.3.0

安装HBase 0.94.6-cdh4.3.0 设定HBase的配置文件,由于安装的是cdh版,各版本直接匹配,互相依赖的jar包也都正确,只需要配置下hbase的环境变量和配置文件即可. 1.配置hbase-env.sh,添加JAVA_HOME环境变量 [html] view plaincopy export JAVA_HOME=/usr/java/default/  其他暂时不用添加 export HBASE_MANAGES_ZK=true 2.修改hbase-site.xml,如下配置 [

在Eclipse上建立hbase 0.98.3/0.96.2源代码阅读环境

2.1. 切换到源代码目录,执行: mvn install -DskipTests -Dhttp.proxyHost=proxy01.cd.intel.com -Dhttp.proxyPort=911 黄色部分作用为设置代理.由于本人的编译环境在公司内网,所以需要设置代理 2.2. 生成eclipse项目环境: mvn eclipse:eclipse -DskipTests -Dhttp.proxyHost=proxy01.cd.intel.com -Dhttp.proxyPort=911 2.

Spark 1.1.0 编译(为了支持hbase 0.98.6)

为了支持hbase0.98.6,需要重新编译spark 1. 下载spark 1.1.0源代码,以及 scala-2.10.4的bin包. 将环境变量 SCALA_HOME 设置为 scala-2.10.4 的目录位置. 2. 下载较新的pom.xml (https://github.com/tedyu/spark) 将该repository中的 spark/pom.xml和spark/examples/pom.xml下载下来,覆盖至用于编译的spark源代码中. 3. 进入源代码目录编译 ex

HBASE 0.98版本安装,一步曲:编译HADOOP 2.2.0 x64版本

1.安装JDK 下载JDK 7u55版本,安装JDK和JRE都需要,JDK里面有tools.jar,这个jar包是一定需要的安装在/java上 2.下载Hadoop 2.2.0源代码 wget http://apache.dataguru.cn/hadoop/common/stable/hadoop-2.2.0-src.tar.gz解压缩tar zxvf hadoop-2.2.0-src.tar.gz -C /tmp 3.安装依赖包 yum -y install lzo-devel zlib-d

HBASE 0.98版本安装,四步曲:安装HBAES 0.98

1.下载hbase-0.98.2-hadoop2-bin.tar.gz 2.解压缩 3.挪动hbase到相应的位置去/home/hadoop/hbase 4.配置hbase /home/hadoop/hbase/conf/hbase-site.xml <property> <name>hbase.rootdir</name> <value>hdfs://hd1:9000/hbase</value> </property> <pr

HBASE 0.98版本安装,二步曲:安装HADOOP到集群

1.准备4台服务器 一台作为namenode 192.168.137.101 hd1 三台作为datanode 192.168.137.102 hd2192.168.137.103 hd3192.168.137.104 hd4 2.拉平所有服务器的时间 使用ntpdate 略 3.配置多机互信 略 4.解压hadoop tar zxvf hadoop-2.2.0.tar.gz 5.移动hadoop到相应位置 mv hadoop-2.2.0 /home/hadoop/hadoop 6.在namen

HBASE 0.98版本安装,三步曲:安装Zookeeper 3.4.5

1.下载zookeeper 3.4.5 2.解压 3.挪到合适的位置 /home/hadoop/zookeeper 4.设置一个zookeeper放置数据的位置 /home/hadoop/zk 5.修改zookeeper配置文件 vim /home/hadoop/zookeeper/conf/zoo.cfg tickTime=2000initLimit=10syncLimit=5dataDir=/home/hadoop/zkclientPort=2181 server.1=hd1:2888:38

Hadoop 2.5.1 + HBase 0.98 单机

Package path: [email protected]:~/something/download ===================================================================== 1 安装环境 代码: sudo apt-get install openssh-server  sudo apt-get install default-jdk 2 安装hadoop 代码: wget http://mirror.ox.ac.uk/sit