hadoop 异常 Inconsistent checkpoint fields

hadoop second namenode异常 Inconsistent checkpoint fields

没有访问量情况下,namenode进程:cpu 100% ;内存使用超多;没有错误日志;

secondarynamenode报错:

java.io.IOException: Inconsistent checkpoint fields.
LV = -57 namespaceID = 371613059 cTime = 0 ; clusterId = CID-b8a5f273-515a-434c-87c0-4446d4794c85 ; blockpoolId = BP-1082677108-127.0.0.1-1433842542163.
Expecting respectively: -57; 1687946377; 0; CID-603ff285-de5a-41a0-85e8-f033ea1916fc; BP-2591078-127.0.0.1-1433770362761.
        at org.apache.hadoop.hdfs.server.namenode.CheckpointSignature.validateStorageInfo(CheckpointSignature.java:134)
        at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.doCheckpoint(SecondaryNameNode.java:531)
        at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.doWork(SecondaryNameNode.java:395)
        at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode$1.run(SecondaryNameNode.java:361)
        at org.apache.hadoop.security.SecurityUtil.doAsLoginUserOrFatal(SecurityUtil.java:411)
        at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.run(SecondaryNameNode.java:357)
        at java.lang.Thread.run(Thread.java:662)

造成如上异常的原因很多,其中一个原因为:second namenode的数据目录中的edit log与当前的数据版本不一致导致

解决方法:

手动删除second nodenode目录下的文件,然后重启hadoop:

查询发现second namenode下的edit log竟然是很久以前的:

/opt/hadoop-2.5.1/dfs/tmp/dfs/namesecondary/current

[[email protected] current]# ll
total 116
-rw-r--r-- 1 root root   42 Jun  8  2015 edits_0000000000000000001-0000000000000000002
-rw-r--r-- 1 root root 8991 Jun  8  2015 edits_0000000000000000003-0000000000000000089
-rw-r--r-- 1 root root 4370 Jun  8  2015 edits_0000000000000000090-0000000000000000123
-rw-r--r-- 1 root root 3817 Jun  9  2015 edits_0000000000000000124-0000000000000000152
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000153-0000000000000000172
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000173-0000000000000000192
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000193-0000000000000000212
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000213-0000000000000000232
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000233-0000000000000000252
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000253-0000000000000000272
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000273-0000000000000000292
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000293-0000000000000000312
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000313-0000000000000000332
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000333-0000000000000000352
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000353-0000000000000000372
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000373-0000000000000000392
-rw-r--r-- 1 root root 2466 Jun  9  2015 edits_0000000000000000393-0000000000000000412
-rw-r--r-- 1 root root 6732 Jun  9  2015 edits_0000000000000000413-0000000000000000468
-rw-r--r-- 1 root root 4819 Jun  9  2015 edits_0000000000000000469-0000000000000000504
-rw-r--r-- 1 root root 2839 Jun  9  2015 fsimage_0000000000000000468
-rw-r--r-- 1 root root   62 Jun  9  2015 fsimage_0000000000000000468.md5
-rw-r--r-- 1 root root 2547 Jun  9  2015 fsimage_0000000000000000504
-rw-r--r-- 1 root root   62 Jun  9  2015 fsimage_0000000000000000504.md5
-rw-r--r-- 1 root root  199 Jun  9  2015 VERSION

上面的问题解决方法是在配置了hadoop.tmp.dir的情况下,如果没有配置,则无法找到edit log文件,需要进行配置,在hdfs-site.xml或core-site.xml中进行配置;

hadoop.tmp.dir配置参数指定 hdfs的默认临时路径,这个最好配置,如果在新增节点或者其他情况下莫名其妙的DataNode启动不了,就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录,那么就需要重新执行NameNode格式化的命令。

时间: 2024-10-09 23:39:47

hadoop 异常 Inconsistent checkpoint fields的相关文章

[Hadoop] - 异常Cannot obtain block length for LocatedBlock

在Flume NG+hadoop的开发中,运行mapreduce的时候出现异常Error: java.io.IOException: Cannot obtain block length for LocatedBlock{BP-235416765-192.168.30.244-1430221967536:blk_1073889944_149172; getBlockSize()=45839; corrupt=false; offset=0; locs=[10.188.10.98:50010, 1

hadoop异常记录

下面遇到问题,提供了一些解决办法,希望有所帮助 1:Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out  这是reduce预处理阶段shuffle时获取已完成的map的输出失败次数超过上限造成的,上限默认为5.引起此问题的方式可能会有很多种,比如网络连接不正常,连接超时,带宽较差以及端口阻塞等,通常框架内网络情况较好是不会出现此错误的. 2:Too many fetch-failures  Answer: 出现这个问题主要

hadoop异常 java.io.IOException: Job status not available

[[email protected] conf]$ hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar wordcount /user/lizeyi/people.txt  /user/lizeyi/wordcount7 15/06/08 18:36:16 INFO client.RMProxy: Connecting to ResourceManager at master.hadoop/10.3.4.35:80

hadoop 异常及处理总结-01(小马哥-原创)

试验环境: 本地:Window-MyEclipse 集群:Vmware 11+ 6台 Centos 6.5 Hadoop版本: 2.4.0(配置为自动HA) 试验背景: 在正常测试MapReduce(下简称MR)程序4次之后,进行一次新的MR程序,MyEclipse的控制台信息卡住不动了,我通过远程连接NameNode查看系统目录也被卡住,这时候再看MyEclipse控制台,发现已经抛出异常 org.apache.hadoop.ipc.RemoteException(org.apache.had

hadoop异常之 reduce拉取数据失败  (error in shuffle in fetcher)

主要错误信息:Error: org.apache.hadoop.mapreduce.task.reduce.Shuffle$ShuffleError: error in shuffle in fetcher#43 解决办法:限制reduce的shuffle内存使用 hive:set mapreduce.reduce.shuffle.memory.limit.percent=0.1; MR:job.getConfiguration().setStrings("mapreduce.reduce.sh

hadoop 异常及处理总结-02(小马哥精品)

一直以来,对hdfs的警告信息不报以理睬,今天突然关注了一下.每当我操作hdfs的时候就会出现这样一个警告: WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 在网上搜了一下,还真的有对这个警告的解决方法,并且,该文作者提到,这个警告不解决,以后Mahout运行也会受到影响,还是学习一下,

【Hadoop】9、hadoop1.2.1完全分布式安装过程异常报错

异常报错 1.ssh配置出错,ssh登录 The authenticity of host 192.168.0.xxx can't be established. 用ssh登录一个机器(换过ip地址),提示输入yes后,屏幕不断出现y,只有按ctrl + c结束 错误是:The authenticity of host 192.168.0.xxx can't be established. 以前和同事碰到过这个问题,解决了,没有记录,这次又碰到了不知道怎么处理,还好有QQ聊天记录,查找到一下,找

secondarynamenode异常

secondarynamenode异常 2014-08-26 22:06:12,793 ERROR org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode: Exception in doCheckpoint java.io.IOException: Inconsistent checkpoint fields. LV = -56 namespaceID = 882296183 cTime = 0 ; clusterId = CID-aa

Hadoop-2.4.0分布式安装手冊

文件夹 文件夹 1 1. 前言 2 2. 部署 2 2.1. 机器列表 2 2.2. 主机名 2 2.2.1. 暂时改动主机名 3 2.2.2. 永久改动主机名 3 2.3. 免password登录范围 4 3. 约定 4 3.1. 安装文件夹约定 4 3.2. 服务port约定 5 4. 工作详单 6 5. JDK安装 6 5.1. 下载安装包 6 5.2. 安装步骤 6 6. 免passwordssh2登录 7 7. Hadoop安装和配置 8 7.1. 下载安装包 8 7.2. 安装和环境