hadoop datanode 启动正常,但master无法识别(50030不显示datanode节点)

start-all.sh 启动

坑爹

找不出错

试了各种办法,重新formaet 查看 集群ID是否相同。都无效

日志也没看到错

按官网方法手动一步步启,问题照旧

master节点,yarn namenode 启动(打印详细日志)

node节点 yarn datanode 启动

看到错了

15/07/02 03:32:51 INFO datanode.DataNode: Block pool BP-89742471-127.0.1.1-1435821846469 (Datanode Uuid null) service to /172.16.231.176:8020 beginning handshake with NN

15/07/02 03:32:52 ERROR datanode.DataNode: Initialization failed for Block pool BP-89742471-127.0.1.1-1435821846469 (Datanode Uuid null) service to /172.16.231.176:8020 Datanode denied communication with namenode because hostname cannot be resolved (ip=172.16.231.175, hostname=172.16.231.175): DatanodeRegistration(0.0.0.0:50010, datanodeUuid=c165abfd-1c06-4259-8588-c805abd72fca, infoPort=50075, infoSecurePort=0, ipcPort=50020, storageInfo=lv=-56;cid=CID-c13bccb4-70ca-43f7-94f7-1b66bbaf64dd;nsid=1827594974;c=0)

at org.apache.hadoop.hdfs.server.blockmanagement.DatanodeManager.registerDatanode(DatanodeManager.java:863)

at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.registerDatanode(FSNamesystem.java:4485)

at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.registerDatanode(NameNodeRpcServer.java:1271)

at org.apache.hadoop.hdfs.protocolPB.DatanodeProtocolServerSideTranslatorPB.registerDatanode(DatanodeProtocolServerSideTranslatorPB.java:95)

at org.apache.hadoop.hdfs.protocol.proto.DatanodeProtocolProtos$DatanodeProtocolService$2.callBlockingMethod(DatanodeProtocolProtos.java:28539)

at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)

at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:969)

at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2049)

at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2045)

at java.security.AccessController.doPrivileged(Native Method)

at javax.security.auth.Subject.doAs(Subject.java:422)

at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)

at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2043)

问题在这里hostname cannot be resolved (ip=172.16.231.175, hostname=172.16.231.175)

改slaves 文件 中的ip 为hostname

datanode1

datanode2

配置/etc/hosts

172.16.231.173 datanode1

172.16.231.174 datanode2

再启动,解决

问题是 slaves  不能写ip 只能写hostname

时间: 2024-12-28 13:19:24

hadoop datanode 启动正常,但master无法识别(50030不显示datanode节点)的相关文章

hadoop datanode启动失败

问题导读: 1.Hadoop出现问题时,该如何入手查看问题?2.datanode无法启动,我们该怎么解决?3.如何动态加入DataNode或TaskTracker? 一.问题描述当我多次格式化文件系统时,如 [email protected]:/usr/local/hadoop-1.0.2# bin/hadoop namenode -format 复制代码 会出现datanode无法启动,查看日志,发现错误为: 2012-04-20 20:39:46,501 ERROR org.apache.h

hadoop namenode多次格式化后,导致datanode启动不了

jps hadoop namenode -format dfs directory : /home/hadoop/dfs --data --current/VERSION #Wed Jul 30 20:41:03 CST 2014 storageID=DS-ab96ad90-7352-4cd5-a0de-7308c8a358ff clusterID=CID-aa2d4761-974b-4451-8858-bbbcf82e1fd4 cTime=0 datanodeUuid=a3356a09-780

hadoop问题总结:datanode启动后,在web50070端口发现不到datanode节点(能力工场)

直接上问题:这两天为了试验,安装了两套集群: (1)32位hadoop1集群(5个节点); (2)64位hadoop2集群(6个节点) 两个集群中都遇到过这样的问题:在namenode正常启动hadoop集群后,查看datanode是正常的显示存在进程,但是在web界面中查看的时候,发现数据节点全部属于宕机,或者就是干脆直接没有datanode.还有种情况,datanode启动后,jps查看是在的,但是一会再去查看,发现挂掉了.还有就是,存储空间显示占用100% 其实这两个集群问题是一样的,都是

hadoop多次格式化后,导致datanode启动不了

hadoop namenode -format多次格式化后,datanode启动不了 org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /user/beifeng/core-site.xml._COPYING_ could only be replicated to 0 nodes instead of minReplication (=1). There are 0 datanode(s) running and

启动Hadoop时,DataNode启动后一会儿自动消失的解决方法

查看slaver1/2的logs,发现 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000java.io.IOException: Incompatible clusterIDs in /u

hadoop多次格式化后,导致datanode启动不了,怎么办?(伪分布式)

根据当初 hadoop 安装目录下 conf 目录的 core-site.xml 的设置,找到该目录: 进入该目录 在 data 和 name 文件夹下均有  current 文件夹 ,和 current 文件夹下有 VERSION 文件 主要要做的是使这两个文件中的 namespaceID 相同 接下来就是修改 data 里的该文件文件: 进入到该目录下: 编辑文件: 保存,退出 重启电脑,启动 hadoop 守护进程 到此成功恢复!!! 来自为知笔记(Wiz) hadoop多次格式化后,导致

datanode无法连接到master

初次在VM上配置Hadoop,开了三台虚拟机,一个作namenode,jobtracker 另外两台机子作datanode,tasktracker 配置好后,启动集群 通过http://localhost:50700查看cluster状况 Hadoop配置datanode无法连接到master 发现没有datanode 检查结点,发现datanode 进程已经启动,查看datanode机器上的日志 2014-03-01 22:11:17,473 INFO org.apache.hadoop.ip

hadoop无法启动

dataNode 无法启动是配置过程中最常见的问题,主要原因是多次format namenode 造成namenode 和datanode的clusterID不一致.建议查看datanode上面的log信息.解决办法:修改每一个datanode上面的CID(位于dfs/data/current/VERSION文件夹中)使两者一致.hadoop无法启动,布布扣,bubuko.com

DataNode启动优化改进:磁盘检测并行化

前言 在本篇文章中,本人打算聊一个大家平常都会遇见到的场景:HDFS中的DataNode启动的问题.DataNode启动不是一件非常迅速的事情吗?这其中能有大问题?看到这里,如果你也是这么想的话,那说明一点:你所运维的集群碰到的异常场景还不太多.本文所要讲述的问题并不是DataNode无法启动的问题,而是它启动有时会过慢的问题.DataNode进程启动过慢造成的直接影响是其上数据的服务延时.集群规模在一个很大规模量级的情况下,如果出现了大量DataNode慢启动的现象,这将会对集群本身对外提供服