master.TableNamespaceManager: Namespace table not found. Creating...

1、错误描述:

  出现上述这个错误的原因是我之前已经安装了Cloudera Manager中的CDH,其中添加了所有的服务,当然也包含HBase。然后重新安装的时候,就会出现如下错误:

  Failed to become active master,org.apache.hadoop.hbase.TableExistsException:hbase:namespace.

根据上面错误的我们可以很清楚的知道,在启动Hbase的时候,由于之前安装的HBase版本的数据还存在,因此重新安装的HBase会报TableExistsException的异常。导致无法启动HBase。

  并且,之前版本的HBase的数据存放的位置是在zookeeper中,因此需要进入zookeeper的客户端查看。

2、解决的办法

(1)停止HBase,这一步应该忽略,因为你根本就没有启动,所以就谈不上停止了。

(2)找到ClouderaManager自动安装的zookeeper组件的位置

    我们知道Cloudera公司安装的CDH所有的组件默认会在/opt/cloudera/parcels/CDH-5.4.4-1.cdh5.4.4.p0.4/lib/ 目录下。因此,

    zookeeper的安装目录就是:/opt/cloudera/parcels/CDH-5.4.4-1.cdh5.4.4.p0.4/lib/zookeeper

(3)进入zookeeper安装目录的bin目录下:

    /opt/cloudera/parcels/CDH-5.4.4-1.cdh5.4.4.p0.4/lib/zookeeper/bin

(4)执行如下命令:

    ./zkCli.sh  ,则会进入zookeeper的客户端的shell界面。并在该shell界面执行 ls  /  命令,则会出现如下所示:

    

    从上图我们可以看出,zookeeper中存在hbase的数据,所以我们只需要将hbase这个删除即可。

(5)执行删除: rmr  /hbase

(6)重启hbase。

ok了。

来源: http://www.cnblogs.com/ljy2013/p/4701951.html

时间: 2024-11-01 15:37:31

master.TableNamespaceManager: Namespace table not found. Creating...的相关文章

利用ClouderaManager启动HBase时,出现 master.TableNamespaceManager: Namespace table not found. Creating...

1.错误描述: 出现上述这个错误的原因是我之前已经安装了Cloudera Manager中的CDH,其中添加了所有的服务,当然也包含HBase.然后重新安装的时候,就会出现如下错误: Failed to become active master,org.apache.hadoop.hbase.TableExistsException:hbase:namespace. 根据上面错误的我们可以很清楚的知道,在启动Hbase的时候,由于之前安装的HBase版本的数据还存在,因此重新安装的HBase会报

hbase hmaster故障分析及解决方案:Timedout 300000ms waiting for namespace table to be assigned

最近生产环境hbase集群出现停掉集群之后hmaster无法启动现象,master日志报异常:Timedout 300000ms waiting for namespace table to be assigned,导致整个集群起不来. 2016-12-12 18:04:12,243 FATAL [adfnn2:16020.activeMasterManager] master.HMaster: Failed to become active master java.io.IOException

HBase单机执行

hbase-env.sh中添加了一句:export JAVA_HOME=/usr/java/jdk1.7.0_65 1.仅设置了JDK地址之后,HBase的启动日志:(注意标红的信息,系统信息,JDK信息,hbase信息(默认存储位置显示),zookeeper信息等) 1 2014年 09月 03日 星期三 11:09:58 CST Starting master on lhh 2 core file size (blocks, -c) 0 3 data seg size (kbytes, -d

kudu master design

The Catalog Manager and System Tables Catalog Manager 监听用户创建的kudu表和tablet. 所有table和tablet的元数据信息以写入时复制(copy-on-write)的objects形式存储在内存和磁盘里,kudu系统的sys.catalog信息只存储在master节点上,它在master启动时被加载进内存.在写这篇设计文档时,为了保证元数据的强一致性,sys.catalog仅仅存在一个tablet中(当前版本,一个tablet有

【转】HBase中Zookeeper,RegionServer,Master,Client之间关系

在2.0之前HDFS中只有一个NameNode,但对于在线的应用只有一个NameNode是不安全的,故在2.0中对NameNode进行抽象,抽象成NamService其下包含有多个NameNode,但只有一个运行在活跃状态,因此需要zookeeper进行选举和自动转换.一旦active当掉之后zookeeper会自定进行切换将standby切换为active. 图片来源:HDFS-1623设计文档 图片作者: Sanjay Radia, Suresh Srinivas 如上图,每一个运行Name

MySQL 主从延迟几万秒 Queueing master event to the relay log(转)

数据库版本Server version:    5.6.24-log Source distribution 问题描述 数据采集平台业务数据库由于批量灌数据导致主从延迟上万秒. 复制线程长期处于Queueing master event to the relay log状态. 监控数据显示1.Seconds_Behind_Master 维持在6w秒左右,且有上升趋势.2.主库有大量的binlog积压无法同步到从库,但主从库的网卡流量都很低远未达到瓶颈.3.从库的qps与tps很低,维持在几百左右

记录一次namespace 处于Terminating状态的处理方法

现象: [[email protected] kube-prometheus]# kubectl get namespaces -o wide NAME STATUS AGE cattle-logging Active 174m cattle-prometheus Active 12h cattle-system Active 15h default Active 8d kube-node-lease Active 8d kube-public Active 8d kube-system Act

HBase 1.1.1 发布(分布式数据库)

HBase 1.1.1 发布下载: hbase-1.1.1-bin.tar.gz hbase-1.1.1-bin.tar.gz.mds hbase-1.1.1-src.tar.gz hbase-1.1.1-src.tar.gz.mds 更新内容如下: ** 子任务 * [HBASE-13470] - High level Integration test for master DDL operations * [HBASE-13497] - Remove MVCC stamps from HFi

Hadoop快速入门

传说中的Hadoop,我终于来对着你唱"征服"了,好可爱的小象,!J 总的来说,hadoop的思路比较简单(map-reduce),就是将任务分开进行,最后汇总.但这个思路实现起来,比较复杂,但相对于几年前Intel等硬件公司提出的网格运算等方式,显得更加开放. 你难任你难,哥就是头铁! Tip:实践应用是核心,本文概念为主,有些部分可能会有些晦涩,直接跳过就好(不是特别重要). 本文代码实践在:https://github.com/wanliwang/cayman/tree/mast