HDFS格式化namenode后启动集群datanode不启动

这是因为格式化namenode之后,namenode节点中VERSION的ClusterID会改变!!!

解决办法:

  1.打开namenode节点的hdfs-site.xml文件,查看你的namenode的元数据存储位置和datanode数据存储位置;

  2.然后到对应的的目录下找到VERSION文件;

  3.打开namenode的VERSION文件,复制其中的ClusterID,粘贴到所有datanode节点VERSION文件的ClusterID后,再次启动集群即可!

原文地址:https://www.cnblogs.com/HelloBigTable/p/10515774.html

时间: 2024-08-05 22:06:49

HDFS格式化namenode后启动集群datanode不启动的相关文章

4.Hadoop集群搭建之启动

配置好Hadoop.HDFS.YARN.Zookeeper集群后,需要按照顺序启动. 前期准备 配置好Hadoop.HDFS.YARN.Zookeeper集群 先stop掉所有的hadoop服务 使用jps命令查看进程,确保只有Jps进程存在,没有其他的Hadoop服务进程.若存在Hadoop服务进程,使用命令kill -9 进程id来关闭进程. 1. 启动zookeeper集群(分别在master.slave1.slave2上启动zk) 在~/zookeeper-3.4.5/bin/下执行 .

格式化hdfs后,hadoop集群启动hdfs,namenode启动成功,datanode未启动

集群格式化hdfs后,在主节点运行启动hdfs后,发现namenode启动了,而datanode没有启动,在其他节点上jps后没有datanode进程!原因: 当我们使用hdfs namenode -format格式化namenode时,会在namenode数据文件夹中保存一个current/VERSION文件,记录clusterID,而datanode中保存的current/VERSION文件中的clustreID的值是第一次格式化保存的clusterID,刚好有进行了一次格式化,在namen

重新格式化namenode后,出现java.io.IOException Incompatible clusterIDs

错误: java.io.IOException: Incompatible clusterIDs in /data/dfs/data: namenode clusterID = CID-d1448b9e-da0f-499e-b1d4-78cb18ecdebb; datanode clusterID = CID-ff0faa40-2940-4838-b321-98272eb0dee3 原因: 每次namenode format会重新创建一个namenodeId,而data目录包含了上次format

Hadoop集群datanode死掉或者secondarynamenode进程消失处理办法

当Hadoop集群的某单个节点出现问题时,一般不必重启整个系统,只须重启这个节点,它会自动连入整个集群. 在坏死的节点上输入如下命令即可: hadoop-daemon.sh start datanode hadoop-daemon.sh start secondarynamenode 案例如下: hadoop节点死机,能ping通,ssh连接不上 案例: 时间:2014/9/11 上午 表现:hadoop的web界面上TC-hadoop018节点dead 症状:节点TC-hadoop018的ss

ZooKeeper单机伪集群搭建与启动

下载解压 [[email protected] ~]$ tar -zvxf zookeeper-3.4.9.tar.gz 本机ip地址映射 [[email protected] /]$ su - rootPassword: Last login: Sat Aug 4 18:59:38 EDT 2018 on :0 [[email protected] ~]# cd /etc [[email protected] etc]# vim hosts 将本机ip映射为一个主机名,在zoo.cfg中可用这

zookeeper集群配置与启动——实战

1,准备: A:三台linxu服务器: 10.112.29.177 10.112.29.172 10.112.29.174 命令 hostname 得到每台机器的 hostname vm-10-112-29-177 vm-10-112-29-172 vm-10-112-29-174 分别创建 /opt/zookeeper/server1/data /opt/zookeeper/server1/dataLog /opt/zookeeper/server2/data /opt/zookeeper/s

kubeadm 生成的token过期后,集群增加节点

通过kubeadm初始化后,都会提供node加入的token. [[email protected]-1 kubernetes]# kubeadm init --config ./kubeadm-init.yaml --skip-preflight-checks [kubeadm] WARNING: kubeadm is in beta, please do not use it for production clusters. [init] Using Kubernetes version:

Spark Standalone如何通过start-all.sh启动集群

1.start-all.sh脚本分析 图1 start-all.sh部分内容 我们可以从start-all.sh脚本源文件中看到它其实是start-master.sh和start-slaves.sh两个脚本的组合. 图2 start-master.sh部分内容 由图2可见,start-master.sh最终是通过类org.apache.spark.deploy.master.Master来完成的,待会儿我们分析. 图3 start-slaves.sh部分内容 由图3可见,start-slaves

Zookeeper集群搭建zookeeper01启动不成功解决方案

查看zookeeper整体启动,zookeeper02,03都启动成功,却只有zookeeper01不起来,纠结了3个小时,重新配置两次,最后发现2181端口被其他进程霸占了,坑啊!!!!! zookeeper01 状态 使用 netstat -atunlp | grep 2181 查看是否霸占进程 发现进程号为2818的java程序霸占了 杀死进程2818 重新启动zookeeper01 启动成功了,功夫不负有心人,继续努力....... 原文地址:https://www.cnblogs.co