[HBase]ERROR: Region is not online

重启HBase后,进入hbase shell 进行 scan 、get 、create等操作均报错:

ERROR: org.apache.hadoop.hbase.NotServingRegionException: org.apache.hadoop.hbase.NotServingRegionException: Region is not online: .META.,,1
at org.apache.hadoop.hbase.regionserver.HRegionServer.getRegion(HRegionServer.java:3154)
at org.apache.hadoop.hbase.regionserver.HRegionServer.getClosestRowBefore(HRegionServer.java:1974)
at sun.reflect.GeneratedMethodAccessor11.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.hbase.ipc.WritableRpcEngine$Server.call(WritableRpcEngine.java:364)
at org.apache.hadoop.hbase.ipc.HBaseServer$Handler.run(HBaseServer.java:1400

找了很久才发现,原来是由于集群中各节点的时间不一致造成RegionServer启动失败:集群节点和master的时间误差阀值由hbase.master.maxclockskew参数设定的。

1.解决方法1,将参数值增加到5分钟
在hbase-site.xml添加配置

<property>
<name>hbase.master.maxclockskew</name>
<value><span style="color:#FF0000;">300000</span></value>
<description>Time difference of regionserver from master</description>
</property>

2.方案2
修改各结点时间,使其误差在30s内

参Linux 修改时间:

时间: 2024-10-09 02:53:29

[HBase]ERROR: Region is not online的相关文章

hbase ERROR: Can&#39;t get master address from ZooKeeper; znode data == null问题解答

当启动hbase后查看日志出现类似下面的错误日志,并且hbase shell进入hbase后,list下会出现 (ERROR: Can't get master address from ZooKeeper; znode data == null) 2015-12-02 10:56:13,413 INFO  [master:master:60000] catalog.CatalogTracker: Failed verification of hbase:meta,,1 at address=m

异常-Phoenix HBASE Last region should end with an empty key. You need to create a new region and regioninfo in HDFS to plug the hole

1 详细异常信息 RROR: There is a hole in the region chain between \x03\x00\x00\x00\x00\x00\x00\x00\x00 and \x05\x00\x00\x00\x00\x00\x00\x00\x00. You need to create a new .regioninfo and region dir in hdfs to plug the hole. ERROR: There is a hole in the regi

HBase Error: connection object not serializable

HBase Error: connection object not serializable 想在spark driver程序中连接HBase数据库,并将数据插入到HBase,但是在spark集群提交运行过程中遇到错误:connection object not serializable 详细的错误: Exception in thread "main" java.io.NotSerializableException: DStream checkpointing has been

hbase删除region块的脚本

删除hbase表region块脚本 文件hua.txt格式: CHAT_INFO,1318153079100530000314050,1318173760068.991ca04ff164c3f7987a9d93e0f744f5. CHAT_INFO,1318156265075530000260366,1318173760068.2e9ac5a34869209f95ab46bf72061fd6. CHAT_INFO,1318158690100530000063285,1318176690151.d

HBase,region以及HFile概念

HBase的region的概念,在逻辑上和table是1:1的关系:但是region在物理实现上对应的是HFile,于是就存在一个region的分割的逻辑,其实似乎region的物理实现HFile的分割. 那么HFile的分割之后数据是一分为二了,那么未来向HFile中插入数据的时候怎么知道向那个HFile中插入呢?其实每个HFile都会有自己的startRowKey以及endRowKey:被一分为二的HFile在META表中会被重新分配startRowKey以及endRowKey信息:这个两个

Hbase的region合并与拆分详解

1.region 拆分机制 region中存储的是大量的rowkey数据 ,当region中的数据条数过多的时候,直接影响查询效率.当region过大的时候.hbase会拆分region , 这也是Hbase的一个优点 . HBase的region split策略一共有以下几种: 1.ConstantSizeRegionSplitPolicy 0.94版本前默认切分策略 当region大小大于某个阈值(hbase.hregion.max.filesize=10G)之后就会触发切分,一个regio

删除hbase的region步骤和代码

1.初始化hbase连接 1 Configuration conf = HbaseCommonsUnit.initConfiguration(); 2 Connection conn = ConnectionFactory.createConnection(conf); 3 Table meta_table = conn.getTable(TableName.META_TABLE_NAME); 4 HTable table = new HTable(conf, Bytes.toBytes(tab

hbase(ERROR: org.apache.hadoop.hbase.ipc.ServerNotRunningYetException: Server is not running yet)

今天启动clouder manager集群时候hbase list出现 (ERROR: org.apache.hadoop.hbase.ipc.ServerNotRunningYetException: Server is not running yet ERROR: Can't get master address from ZooKeeper; znode data == null ) 一类错误 看网上有几种解决方案 一个是 1: 在使用 hbase shell 时,一直报错.花了半个多小时

hbase ERROR: wrong number of arguments (3 for 4)

hbase(main):036:0> get 'ddl', 'example', 'info:age'COLUMN                                               CELL info:age                                            timestamp=1436787562408, value=\x00\x00\x00\x00\x00\x00\x00\x031 row(s) in 0.0160 seconds