重新format namenode后,datanode无法正常启动

测试环境,由于测试需求,重新format namenode后,导致datanode无法正常启动。

1. 查看datanode日志,可以发现错误“Initialization failed for Block pool <registering> (Datanode Uuid unassigned)”

2018-01-27 20:09:49,052 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to c6704/192.168.67.104:9000. Exiting.
java.io.IOException: All specified directories are failed to load.
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:478)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1361)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1326)
at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:317)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:223)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:801)
at java.lang.Thread.run(Thread.java:745)
2018-01-27 20:09:49,056 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to c6705/192.168.67.105:9000. Exiting.
java.io.IOException: All specified directories are failed to load.
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:478)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1361)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1326)
at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:317)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:223)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:801)
at java.lang.Thread.run(Thread.java:745)
2018-01-27 20:09:49,069 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Ending block pool service for: Block pool <registering> (Datanode Uuid unassigned) service to c6705/192.168.67.105:9000
2018-01-27 20:09:49,070 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Ending block pool service for: Block pool <registering> (Datanode Uuid unassigned) service to c6704/192.168.67.104:9000
2018-01-27 20:09:49,192 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Removed Block pool <registering> (Datanode Uuid unassigned)
2018-01-27 20:09:51,193 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Exiting Datanode
2018-01-27 20:09:51,204 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 0
2018-01-27 20:09:51,208 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down DataNode at c6706.python279.org/192.168.67.106
************************************************************/

2. 经过百度,根据日志描述,原因是datanode的clusterID 和 namenode的clusterID 不匹配。

打开hdfs-site.xml中关于datanode和namenode对应的目录,分别打开其中的current/VERSION文件,进行对比。

3. namenode的VERSION内容如下:

[[email protected] $ cat /data/hadoop/hdfs/name/current/VERSION
#Sat Jan 27 00:46:30 UTC 2018
namespaceID=1148548909
clusterID=CID-aedb2e82-77f2-4056-b676-dca88083215d
cTime=0
storageType=NAME_NODE
blockpoolID=BP-1099214307-192.168.67.104-1517013990445
layoutVersion=-63

4. datanode的VERSION文件内容如下:

[[email protected] ~]$ cat /data/hadoop/hdfs/data/current/VERSION
#Sat Jan 27 00:20:21 UTC 2018
storageID=DS-8f0fdd04-e967-43cd-bd41-93b826b675b8
clusterID=CID-b27ecfd8-64ba-4e43-bd82-4ef6f2edd60c
cTime=0
datanodeUuid=264b1b43-82c0-411c-859f-32761edc7465
storageType=DATA_NODE
layoutVersion=-56
5. namenode和datano

de的版本是不同的,决定备份datanode,并清空VERSION,然后启动datanode,问题依旧。检查VERSION,内容是空的。

[[email protected] current]$ cp VERSION VERSION.bk
[[email protected] current]$ echo > VERSION
[[email protected] current]$ cat VERSION

6. 删除VERSION,再次启动datanode,VERSION内容已经同步。

$ cat VERSION
#Sun Jan 28 01:29:46 UTC 2018
storageID=DS-1c1f5e05-df2c-40de-b39b-d6d54e3c4894
clusterID=CID-aedb2e82-77f2-4056-b676-dca88083215d    ##<<<<<同步了
cTime=0
datanodeUuid=948d5780-053e-4752-9476-fb1d1debda72
storageType=DATA_NODE
layoutVersion=-56

7. 通过页面也可以查询到datanode了。

8. 问题原因

执行hdfs namenode -format后,current目录会删除并重新生成,其中VERSION文件中的clusterID也会随之变化,而datanode的VERSION文件中的clusterID保持不变,造成两个clusterID不一致。

所以为了避免这种情况,可以再执行的namenode格式化之后,删除datanode的current文件夹,或者修改datanode的VERSION文件中出clusterID与namenode的VERSION文件中的clusterID一样,然后重新启动datanode。

参考:

http://blog.csdn.net/liuxinghao/article/details/40121843

原文地址:http://blog.51cto.com/hsbxxl/2066487

时间: 2024-07-31 09:39:46

重新format namenode后,datanode无法正常启动的相关文章

多次NameNode执行format后DataNode启动不了解决方案

1.问题 执行start-dfs.sh后在进程中查看jps,发现NameNode启动,但DataNode没有 2.原因 在失败的.log文件中看到datanode的clusterID 和 namenode的clusterID 不一致 原因可能是多次Hadoop namenode -format导致clusterID不一致 3.解决方法 1)先去hadoop路径下的配置文件hdfs-site.xml可知dfs.namenode.name.dir的地址和dfs.datanode.data.dir的地

解决hadoop启动后datanode无法启动问题

hadoop部署完成后datanode无法启动问题解决 1.检查是否有遗留的hadoop进程还在运行,如果有的话,先stop-all.sh或kill杀掉: 2.在master节点上,删除/tmp/hadoop-XXX/下的所有文件: 3.在slave节点上,删除/tmp/hadoop-XXX/下的所有文件: 4.格式化namenode,bin/hadoop namenode -format 5.bin/start-all.sh启动hadoop,检查.

HDFS体系结构(NameNode、DataNode详解)

hadoop项目地址:http://hadoop.apache.org/ 分布式文件系统概述: 数据量越来越多,在一个操作系统管辖的范围存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,因此迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统 . 是一种允许文件通过网络在多台主机上分享的文件系统,可让多机器上的多用户分享文件和存储空间. 通透性.让实际上是通过网络来访问文件的动作,由程序与用户看来,就像是访问本地的磁盘一般. 容错.即使系统中有某些节点脱机,整体

执行start-dfs.sh后,datenode没有启动

查看日志如下: 2014-06-18 20:34:59,622 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000java.io.IOException: Incompatible clus

NameNode和DataNode间的联系

本文内容还是转载自--吴超沉思录里的,还是挺佩服吴超老师的O(∩_∩)O~ 以下介绍NameNode和DataNode所扮演的角色: (1)NameNode NameNode的作用是管理文件目录结构,是管理数据节点的.NameNode维护两套数据:一套是文件目录与数据块之间的关系,另一套是数据块与节点间的关系.前一套是静态的,是存放在磁盘上的,通过fsimage和edits文件来维护:后一套数据是动态的,不持久化到磁盘,每当集群启动的时候,会自动建立这些信息. (2)DataNode DataN

【已解决】DataNode 无法正常启动解决方案

1. 原因一 在 start-all.sh 之后 DataNode 无法正常启动,单独启动也启动不了 可能的原因 多次格式化,导致 NameNode 和 DataNode 的集群 id 不匹配 DataNode 无法启动 验证 查看对应主机的相关日志信息,位置在 /soft/hadoop/logs 查看 hadoop-centos-datanode-s101.log 文件 java.io.IOException: Incompatible clusterIDs in /tmp/hadoop-ce

04 namenode和datanode

namenode元数据管理 1.什么是元数据? hdfs的目录结构及每一个文件的块信息(块的id,块的副本数量,块的存放位置<datanode>) 2.元数据由谁负责管理? namenode 3.namenode把元数据记录在哪里? namenode的实时的完整的元数据存储在内存中: namenode还会在磁盘中(dfs.namenode.name.dir)存储内存元数据在某个时间点上的镜像文件: namenode会把引起元数据变化的客户端操作记录在edits日志文件中: namenode主要

Hadoop介绍-4.Hadoop中NameNode、DataNode、Secondary、NameNode、JobTracker TaskTracker

Hadoop是一个能够对大量数据进行分布式处理的软体框架,实现了Google的MapReduce编程模型和框架,能够把应用程式分割成许多的 小的工作单元,并把这些单元放到任何集群节点上执行.在MapReduce中,一个准备提交执行的应用程式称为「作业(job)」,而从一个作业划分出 得.运行于各个计算节点的工作单元称为「任务(task)」.此外,Hadoop提供的分布式文件系统(HDFS)主要负责各个节点的数据存储,并实现了 高吞吐率的数据读写. 在分布式存储和分布式计算方面,Hadoop都是用

什么是NameNode和DataNode?他们是如何协同工作的?

[学习笔记] 什么是NameNode和DataNode?他们是如何协同工作的? 马克-to-win @ 马克java社区:一个HDFS集群包含一个NameNode和若干的DataNode(start-dfs命令就启动了NameNode和DataNode), NameNode是管理者,主要负责管理hdfs文件系统,具体包括namespace命名空间管理(即目录结构)和block管理.DataNode主 要用来存储数据文件,因为文件可能巨大无比(大数据,大于1TB),HDFS将一个文件分割成一个个的