ceph osd 删除

1、简介

    一般 情况下,osd 是不需要 进行 删除 操作的,但是了,凡事 无绝对;很多时候 还是需要 进行删除 操作(例如,对已经 部署好的 存储 集群 重新 进行 方案的 调整,就需要 对 osd 进行 删除 操作,重新 进行 调整)
    

2、out osd

## 将osd out
##     reweight 会被置为 0,集群会进行数据迁移
##     相当于进行 "ceph osd reweight <osdname (id|osd.id)> <float[0.0-1.0]>" 操作
##     当 "reweight" 为 0 时,该 osd节点 不纳入 "in" 计数
# ceph osd out {osd_id}

    

3、stop osd

## 关闭 osd节点的守护进程
##     在关闭守护进程之前,需要等待 out 之后的数据迁移结束
##     该节点的守护进程 不纳入 "up" 计数
# systemctl stop ceph-osd@{osd_id}.service

    

4、remove osd

## remove osd
##     weight 变为 0,则会更改 crush 算法的权重
# ceph osd crush remove osd.{osd_id}

    

5、aut del osd

## aut del osd
##     删除 osd 节点相关的权限信息
# ceph auth del osd.{osd_id}

    

6、rm osd

## rm osd
##     删除 osd 节点 id号
# ceph osd rm {osd_id}

原文地址:https://blog.51cto.com/11495268/2357980

时间: 2024-11-10 23:59:14

ceph osd 删除的相关文章

ceph 添加删除磁盘mon osd mds

一.删除节点包含(mon osd mds)的节点 1.摘除mon [[email protected] ~]# ceph mon remove ceph01 removed mon.bgw-os-node153 at 10.240.216.153:6789/0, there are now 2 monitors 2.摘除此节点上所有的osd 1).查看此节点的osd [[email protected] ~]# ceph osd tree -4      1.08                

Ceph:删除OSD

1.查看OSD的分布信息: # ceph osd tree ID WEIGHT  TYPE NAME                     UP/DOWN REWEIGHT PRIMARY-AFFINITY  -1 0.21950 root default                                                     -2 0.04390     host hz-01-ops-tc-ceph-01                            

Ceph osd异常退出故障处理

如果一个硬盘故障导致osd节点出现如下的down状态,且一直无法恢复( reweight列等于0,表示osd已经out此集群) [[email protected] ~]# ceph osd tree # id    weight  type name       up/down reweight -1      4       root default -2      1               host os-node5 0       1                       o

更换硬盘跳线,ceph osd 不能正常启动

1.环境说明 使用kolla 部署了ceph,由于osd 0占用于 sata 0通道,需要将系统盘与osd 0的跳线交换,在跳线交换后,osd 0不能正常启动. 2.原因分析: 交换跳线前,osd 0的设备文件为/dev/sda2 ,交换跳线后变为/dev/sdc2,osd在启动时,--osd-journal /dev/sda2,指定日志设备,由于跳线变更后,日志分区设备名称变为/dev/sdc2,而osd 启动依然使用/dev/sda2作日志设备,故启动失败. 3.解决办法: 删除原有dock

ceph osd盘挂掉,无法修复

由于网络更换ip段,导致ceph启动时monitor进程无法启动,解决了这个问题后,ceph能够启动,但一块osd盘坏掉了,错误日志如下: 2014-12-24 10:53:30.353262 7f3fbbd78800 0 ceph version 0.87 (c51c8f9d80fa4e0168aa52685b8de40e42758578), process ceph-osd, pid 9794 2014-12-24 10:53:30.359829 7f3fbbd78800 0 filesto

ceph osd weight、reweight 数值调整

1.简介 ????ceph 集群搭建成功后,很多时候 pg 分布是 不均匀的,此时 就需要 我们 通过 手动调整 weight值,从而 达到 pg相对均衡(本文 针对 有ceph 基础的人,所以 命令 不会 进行解释)???? # ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 0.20181 root default -7 0.05499 host mon0 0 hdd 0.01799 osd.0 up 1.

Linux开机后 systemd 自动启动 ceph osd mon进程

机房操作失误导致机架或主机掉电是偶尔发生的事情,那么怎么在这种情况下,让Ceph服务随OS启动而快速启动呢 ? 如下是一个简单方法: 在OSD主机上执行如下命令: sudo ln -s /usr/lib/systemd/system/[email protected] /etc/systemd/system/multi-user.target.wants/[email protected] sudo systemctl enable [email protected] sudo systemct

ceph 创建和删除osd

1.概述 本次主要是使用ceph-deploy工具和使用ceph的相关命令实现在主机上指定磁盘创建和删除osd,本次以主机172.16.1.96(主机名hadoop96)为例,此主机系统盘为/dev/sda, 其他盘有/dev/sdb./dev/sdc和/dev/sdd,这几个盘都是裸磁盘,目的是使用这几个盘的组合创建osd. 磁盘情况如下图: 2.创建osd 使用ceph-deploy(工具安装在hadoop95上)创建osd,这里创建两个osd,其中一个数据和日志在同一个磁盘上,另外的osd

ceph 删除osd的一些问题

1.删除osd删除创建的osd.数据和日志在同一个磁盘上的osd将osd.0踢出集群,执行ceph osd out 0停止此osd进程,执行systemctl stop [email protected] 然后执行:ceph osd crush remove osd.0,此时osd.0已经不再osd tree中了 执行ceph auth del osd.0 和 ceph osd rm 0, 此时删除成功但是原来的数据和日志目录还在,也就是数据还在 此时我们将/dev/sdd磁盘umount,然后