ceph 删除osd的一些问题

1、删除osd
删除创建的osd。
数据和日志在同一个磁盘上的osd
将osd.0踢出集群,执行ceph osd out 0
停止此osd进程,执行systemctl stop [email protected]

然后执行:ceph osd crush remove osd.0,此时osd.0已经不再osd tree中了

执行ceph auth del osd.0 和 ceph osd rm 0, 此时删除成功但是原来的数据和日志目录还在,也就是数据还在

此时我们将/dev/sdd磁盘umount,然后将磁盘进行擦除那么数据就会被完全删除了,执行umount /dev/sdd,然后执行ceph-disk zap /dev/sdd

但是发现umount 不了,也无法删除文件夹

方法

创建osd

ceph-deploy osd create --data /dev/sdd node1

因为有原来的 lvm 记录,所以重新创建不了,提示原来的lvm有记录

记录下 vg 序列号

ceph-volume lvm list

删除vg记录

vgremove ceph-7216ab35-9637-4930-9537-afe9f1525efa

此时sdd 出来了

在次执行创建osd

ceph-deploy osd create --data /dev/sdd node1

osd.0 in进集群

ceph osd in osd.0

原文地址:https://blog.51cto.com/11434894/2437772

时间: 2024-11-08 16:01:10

ceph 删除osd的一些问题的相关文章

ceph 创建和删除osd

1.概述 本次主要是使用ceph-deploy工具和使用ceph的相关命令实现在主机上指定磁盘创建和删除osd,本次以主机172.16.1.96(主机名hadoop96)为例,此主机系统盘为/dev/sda, 其他盘有/dev/sdb./dev/sdc和/dev/sdd,这几个盘都是裸磁盘,目的是使用这几个盘的组合创建osd. 磁盘情况如下图: 2.创建osd 使用ceph-deploy(工具安装在hadoop95上)创建osd,这里创建两个osd,其中一个数据和日志在同一个磁盘上,另外的osd

Ceph:删除OSD

1.查看OSD的分布信息: # ceph osd tree ID WEIGHT  TYPE NAME                     UP/DOWN REWEIGHT PRIMARY-AFFINITY  -1 0.21950 root default                                                     -2 0.04390     host hz-01-ops-tc-ceph-01                            

SUSE Ceph 增加节点、减少节点、 删除OSD磁盘等操作 - Storage6

一.测试环境描述 之前我们已快速部署好一套Ceph集群(3节点),现要测试在现有集群中在线方式增加节点 如下表中可以看到增加节点node004具体配置 主机名 Public网络 管理网络 集群网络 说明 admin 192.168.2.39 172.200.50.39 --- 管理节点 node001 192.168.2.40 172.200.50.40 192.168.3.40 MON,OSD node002 192.168.2.41 172.200.50.41 192.168.3.41 MO

删除osd节点

删除osd的正确方式有如下(对比分析) 在ceph的集群当中关于节点的替换的问题,一直按照以前的方式进行的处理,处理的步骤如下: 停止osd进程 /etc/init.d/ceph stop osd.0 这一步是停止osd的进程,让其他的osd知道这个节点不提供服务了 将节点状态标记为out ceph osd out osd.0 这个一步是告诉mon,这个节点已经不能服务了,需要在其他的osd上进行数据的恢复了 从crush中移除节点 ceph osd crush remove osd.0 从cr

ceph摘掉osd节点

1.关闭ceph osd进程 service ceph stop osd 2.让ceph集群中的数据进行平衡 3.等所有的pg都达到active+clean平衡度时删除osd节点 删除前ceph集群状态 [[email protected] ~]# ceph osd tree # id    weight  type name       up/down reweight -1      4       root default -2      1               host os-n

ceph增加osd流程

假如需要新增一个主机名:osd4 ip:192.168.0.110的OSD1.在osd4创建挂载目录及放置配置文件的目录 ssh 192.168.0.110 (这里是从mon主机ssh到osd4主机) mkdir /ceph/osd.4 mkdir /etc/ceph 2.在osd4上格式化ext4的sda3分区,挂载分区. mkfs.ext4 /dev/sda3 mount -o user_xattr /dev/sda3 /ceph/osd.43.将mon主机的id_dsa.pub拷至osd4

CEPH之osd批量创建

一直出差都没时间写了... 今天创建150个osd,发现手动写ceph.conf有点头大,研究了下vim的递增功能. 很简单就是一条命令: :let i=0|g/REG/s//\=i/|let i=i+1 它可以匹配你文本中的REG,然后按照你i+n,每次递增加+n 上面这条命令的作用就是,查找文本中的REG字符,然后从第一个开始替换成0,然后依次+1 这样在ceph.conf中,我们可以首先复制出来150个[osd.gggg],然后在使用上面的命令来递增,同时vim还支持ctrl+A来对数字+

Ceph的osd节点问题

背景ceph的整体读写性能下降 经查看 ceph osd perf 有一块osd延迟较大在200多ms以上 决定剔除后 整体性能恢复 说明osd的一个节点问题有时会影响整体ceph的性能 ceph --admin-daemon /var/run/ceph/ceph-osd.135.asok perf dump | more"WBThrottle": {"bytes_dirtied": 13333504,"bytes_wb": 0,"io

ceph 指定OSD创建pool

https://my.oschina.net/wangzilong/blog/1549690 ceph集群中允许使用混合类型的磁盘,比如一部分磁盘是SSD,一部分是STAT.如果针对某些业务小高速磁盘SSD,某些业务需要STAT,在创建资源池的时候可以指定创建在某些OSD上. 基本步骤有8步: 当前只有STAT没有SSD,但是不影响实验结果. 1    获取crush map [[email protected] getcrushmap]# ceph osd getcrushmap -o /op