Ceph手动修复mon 集群

目录

  • 一、背景介绍
  • 二、 解决过程

一、背景介绍

ceph 版本为L版,集群由于异常断电,导致文件丢失,ceph mon 数据文件store.db/目录下的sst 文件丢失,所以无法正常启动。

本集群有三台mon节点,其中有一台mon 节点的服务可以正常启动,另外两台无法正常启动。

二、 解决过程

因为判断可能出现文件丢失导致的mon无法启动,所以决定重做另两台mon来解决问题

1、本环境中control3的mon是好的,control1和control2是坏的

在control3上导出monmap

[[email protected] ~]monmaptool  --create  --clobber  --fsid  45b34caa-83b8-4c36-833b-544bba873456  --add  control3  172.16.12.43:6789  --add  control1 172.16.12.41:6789    --add  control2  172.16.12.42:6789  /tmp/monmap
//导出monmap,好的节点写再前面,后面把所有的坏的节点加上即可。

2、将control1 和control2节点上的/var/lib/ceph/mon目录删掉,因为仅仅是文件丢失,并不是认证出现问题,原有的/etc/ceph/目录没有删除。

3、将keyring 文件传到其他节点上

[[email protected] ~]scp   /var/lib/ceph/mon/ceph-control3/keyring   [email protected]:/tmp/
[[email protected] ~]scp   /var/lib/ceph/mon/ceph-control3/keyring   [email protected]:/tmp/
[[email protected] ~]scp   /tmp/monmap  [email protected]:/tmp/
[[email protected] ~]scp   /tmp/monmap  [email protected]:/tmp/

4、重做control1和control2的mon

[[email protected] ~] ceph-mon  --cluster    ceph  -i  control1 --mkfs  --monmap  /tmp/monmap  --keyring  /tmp/keyring  -c  /etc/ceph/ceph.conf
[[email protected] ~] chown -R ceph:ceph   /var/lib/ceph/mon/ceph-control1/
[[email protected] ~] systemctl restart [email protected]

-------------------------------------------------------------------------
[[email protected] ~] ceph-mon  --cluster    ceph  -i  control2 --mkfs  --monmap  /tmp/monmap  --keyring  /tmp/keyring  -c  /etc/ceph/ceph.conf
[[email protected] ~] chown -R ceph:ceph   /var/lib/ceph/mon/ceph-control2/
[[email protected] ~] systemctl restart [email protected]

5、执行ceph -s

原文地址:https://www.cnblogs.com/yanling-coder/p/12160813.html

时间: 2024-11-10 08:40:43

Ceph手动修复mon 集群的相关文章

手动升级kubernetes集群

手动升级kubernetes集群 在我最开始写作本书的时候,kubernetes刚发布1.6.0版本,而kubernetes基本按照每三个月发布一个大版本的速度迭代,为了使用新特性和只支持新版本kubernetes的配套软件,升级kubernetes就迫在眉睫,在此我们使用替换kubernets的旧的二进制文件这种暴力的方式来升级测试集群,若升级生产集群还望三思. 另外,自kubernetes1.6版本之后发布的1.7和1.8版本又增加了一些新特性,参考: Kubernetes1.7更新日志 K

手动构建redis集群

1.准备节点 -- 主节点 --- redis-7000.conf redis-7100.conf redis-7200.conf -- 从节点 --- redis-7001.conf redis-7101.conf redis-7201.conf Redis集群一般有多个节点组成,节点数量至少为6个才能保证组成完整的高可用集群: 2.修改配置 $ vim redis-7000.conf daemonize yes   ## 开启守护进程  port 7000   # 节点端口 logfile 

手动搭建weblogic集群

前言: weblogic通过本身自带的选项在创建domian的时候是可以进行集群,管理,受管的配置,因为对那块不是很熟悉,只能通过这种方式进行,感觉这种方式还算清晰 1:环境 192.168.0.100 192.168.0.101 192.168.0.102 2:目标 将应用部署到100,101,102三台机器,组成集群,共同提供访问(此步骤使用F5实现,也可以使用keepalied虚拟) 3:管理机及受管机器 192.168.0.100 管理机(同时也是受管机器) 192.168.0.101

ceph集群常用命令

结合网络.官网.手动查询等多方渠道,整理ceph维护管理常用命令,并且梳理常规命令在使用过程中的逻辑顺序.另外整理期间发现ceph 集群的命令体系有点乱,详细情况各自体验. 一:ceph集群启动.重启.停止 1:ceph 命令的选项如下: 选项简写描述 --verbose-v详细的日志. --valgrindN/A(只适合开发者和质检人员)用 Valgrind 调试. --allhosts-a在 ceph.conf 里配置的所有主机上执行,否 则它只在本机执行. --restartN/A核心转储

ceph集群常用命令梳理

结合网络.官网.手动查询等多方渠道,整理ceph维护管理常用命令,并且梳理常规命令在使用过程中的逻辑顺序.另外整理期间发现ceph 集群的命令体系有点乱,详细情况各自体验. 一:ceph集群启动.重启.停止 1:ceph 命令的选项如下: 选项 简写 描述 --verbose -v 详细的日志. --valgrind N/A (只适合开发者和质检人员)用 Valgrind 调试. --allhosts -a 在 ceph.conf 里配置的所有主机上执行,否 则它只在本机执行. --restar

Ceph 存储集群-低级运维

低级集群运维包括启动.停止.重启集群内的某个具体守护进程:更改某守护进程或子系统配置:增加或拆除守护进程.低级运维还经常遇到扩展.缩减 Ceph 集群,以及更换老旧.或损坏的硬件. 一.增加/删除 OSD 如果您的集群已经在运行,你可以在运行时添加或删除 OSD . 增加 OSD 你迟早要扩容集群, Ceph 允许在运行时增加 OSD .在 Ceph 里,一个 OSD 一般是一个 ceph-osd 守护进程,它运行在硬盘之上,如果你有多个硬盘,可以给每个硬盘启动一个 ceph-osd 守护进程.

Ceph集群由Jewel版本升级到Luminous版本

参考文档 https://www.virtualtothecore.com/en/upgrade-ceph-cluster-luminous/http://www.chinastor.com/distristor/11033L502017.html 缘起 首先看之前安装版本链接及测试http://blog.51cto.com/jerrymin/2139045http://blog.51cto.com/jerrymin/2139046mon ceph0.ceph2.cphe3osd ceph0.c

CEPH的基本概念及通过Ceph-Deploy快速部署CEPH集群

基础概念 **OSD**:Object Storage Device,主要用于存储数据,处理数据,,恢复,回不,平衡数据,并提供数据给monitor. **Monitor**:Ceph监视器,主要用于集群健康状态维护,提供策略,包含Monitor Map ,OSD Map,PG ma和CRUSH MAP **MSD**:Cpeh Metadata Server,主要保存ceph文件系统的元数据,快存储,对象存储不需要MSD. Ceph的架构核心组件RADOS,如架构图 RADOS:具备自我修复的

使用ceph-deploy安装部署线上ceph分布式存储集群(centos6.6)

一:CEPH简介 OSDs: Ceph的OSD守护进程(OSD)存储数据,处理数据复制,恢复,回填,重新调整,并通过检查其它Ceph OSD守护程序作为一个心跳 向Ceph的监视器报告一些检测信息.Ceph的存储集群需要至少2个OSD守护进程来保持一个 active + clean状态.(Ceph默认制作2个备份,但你可以调整它) Monitors:Ceph的监控保持集群状态映射,包括OSD(守护进程)映射,分组(PG)映射,和CRUSH映射. Ceph 保持一个在Ceph监视器, Ceph O