启动hadoop报ERROR org.apache.hadoop.hdfs.server.namenode.FSImage: Failed to load image from FSImageFile

不知道怎么回事,今天在启动集群时通过jps查看进程时始终有一个standby namenode进程无法启动。查看日志时报的是不能加载fsimage文件。日志截图如下:

日志报的很明显了是不能加载元数据信息,解决方案:

解决办法:

1、手动copy namenode(active)所在的那台服务器上XXX/dfs/name/current/下的所有文件到namenode(standby)

所在的那台服务器的对应文件夹下。

2、 重新格式化namenode(active),然后再把格式化后的元数据复制到namenode(standby)。

(这个方法慎用!因为,重新格式化namenode,namenode上的元数据会丢失,元数据丢失了,后果不堪设想!)

时间: 2024-10-22 15:52:18

启动hadoop报ERROR org.apache.hadoop.hdfs.server.namenode.FSImage: Failed to load image from FSImageFile的相关文章

ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Incompatible namespaceIDs

用三台centos操作系统的机器搭建了一个hadoop的分布式集群.启动服务后失败,查看datanode的日志,提示错误:ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Incompatible namespaceIDs in /var/lib/hadoop-0.20/cache/hdfs/dfs/data: namenode namespaceID = 240012870; datanode

HBase 报错 ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing

学hbase的时候,搭建好环境启动hbase,jps查看进程发现hmaster和hregionserevr可以正常出现. 终端下输入hbase shell后也可以进入hbase的shell,输入List后就报错: 错误提示:ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing 查看错误日志发现: 如图 发现有一台节点无法连接,所以master一直是等待状态,不能列出具体的namespace.启动另一台

Secondarynamenode无法正常备份:ERROR org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode: Exception in doCheckpoint

原先使用hadoop默认设置(hadoop1.2.1),secondarynamenode会正常进行备份,定时从namenode拷贝image文件到SNN.但是具体SNN备份的时间周期和log文件的大小无法定制,后来楼主就修改了SNN的设置,将fs.checkpoint.period修改为3600s,fs.checkpoint.size修改为64兆.在core-site.xml配置文件中添加这两个参数之后,却发现SNN总是无法备份.后来google查找发现还是配置文件没有配置完整造成的,修改配置

hbase报错 ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing

hbase报错: hbase(main):001:0> status ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing at org.apache.hadoop.hbase.master.HMaster.checkInitialized(HMaster.java:2293) at org.apache.hadoop.hbase.master.MasterRpcServices.getCluster

hbase(ERROR: org.apache.hadoop.hbase.ipc.ServerNotRunningYetException: Server is not running yet)

今天启动clouder manager集群时候hbase list出现 (ERROR: org.apache.hadoop.hbase.ipc.ServerNotRunningYetException: Server is not running yet ERROR: Can't get master address from ZooKeeper; znode data == null ) 一类错误 看网上有几种解决方案 一个是 1: 在使用 hbase shell 时,一直报错.花了半个多小时

用java运行Hadoop程序报错:org.apache.hadoop.fs.LocalFileSystem cannot be cast to org.apache.

用java运行Hadoop例程报错:org.apache.hadoop.fs.LocalFileSystem cannot be cast to org.apache.所写代码如下: package com.pcitc.hadoop; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.h

ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing

Ambari中配置hbase: Security Enable Authentication :Simple Enable Authorization: off ==>启动 重起整个系统,工作正常, [[email protected]~]# sudo -u hbase hbase shell SLF4J:Class path contains multiple SLF4J bindings. SLF4J:Found binding in[jar:file:/usr/hdp/2.3.4.0-34

HDFS超租约异常总结(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException)

HDFS超租约异常总结(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException) 转载 2014年02月22日 14:40:58 9686 异常信息: 13/09/11 12:12:06 INFO hdfs.DFSClient: SMALL_BUFFER_SIZE is 512 org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.server.namenode

异常-Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=hdfs, access=WRITE, inode="/hbase":root:supergroup:drwxr-xr-x

1 详细异常 Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=hdfs, access=WRITE, inode="/hbase":root:supergroup:drwxr-xr-x at org.apache.hadoop.hdfs.server.namenode.DefaultAu