先上几张图展示下目前Ceph存储的大体情况,模拟更换服务器CLIENT3上数据硬盘,ceph存储设备已经有存放数据,观察更换过程及恢复变化。
[[email protected] ~]# systemctl stop [email protected]
[[email protected] ~]# umount /var/lib/ceph/osd/ceph-2
[[email protected] ~]# ceph osd out osd.2
[[email protected] ~]# ceph auth del osd.2
[[email protected] ~]# ceph osd rm 2
清空磁盘信息:
[[email protected] ~]# wipefs -af /dev/sdb
磁盘变化:(删除旧磁盘,更换新盘,虚拟机中删除后原50G硬盘,重新添加一个80G硬盘。
此时集群状态
原硬盘50G更换后为80G
[[email protected] ~]# cd /data/idc-cluster/
[[email protected] idc-cluster]# ceph-deploy osd prepare client3:/dev/sdb
存储空间也变大了(原来为135G,更改硬盘后存储空间为165G)。
数据依然存在,无变化。
CEPH集群恢复中:
[[email protected] cephfs]# ceph health
恢复完成:[[email protected] cephfs]# ceph health
原文地址:https://blog.51cto.com/jdonghong/2442462
时间: 2024-11-10 04:43:16