ceph 添加删除磁盘mon osd mds

一、删除节点包含(mon osd mds)的节点

1、摘除mon

[[email protected] ~]# ceph mon remove ceph01

removed mon.bgw-os-node153 at 10.240.216.153:6789/0, there are now 2 monitors

2、摘除此节点上所有的osd

1)、查看此节点的osd

[[email protected] ~]# ceph osd tree

-4      1.08                    host ceph01

8       0.27                            osd.8   up      1

9       0.27                            osd.9   up      1

10      0.27                            osd.10  up      1

11      0.27                            osd.11  up      1

11      0.27                            osd.12  up      1

2)、把上面的节点的osd进程停掉

[[email protected] ~]# /etc/init.d/ceph stop osd

=== osd.10 ===

Stopping Ceph osd.10 on ceph01..kill 2251...done

=== osd.9 ===

Stopping Ceph osd.9 on ceph01...kill 2023...kill 2023...done

=== osd.8 ===

Stopping Ceph osd.8 on ceph01 kill 1724...kill 1724...done

=== osd.11 ===

Stopping Ceph osd.8 on ceph01 kill 1724...kill 1724...done

=== osd.12===

Stopping Ceph osd.11 on ceph01...kill 1501...done

3)、再次查看ceph osd状态

[[email protected] ~]# ceph osd tree

-4      1.08                    host ceph01

8       0.27                            osd.8   down    1

9       0.27                            osd.9   down    1

10      0.27                            osd.10  down    1

11      0.27                            osd.11  down    1

4)、删除所有的osd

[[email protected]ceph01 ~]# ceph osd rm 8

removed osd.8

[[email protected]ceph01 ~]# ceph osd rm 9

removed osd.9

[[email protected]ceph01 ~]# ceph osd rm 10

^[[Aremoved osd.10

[[email protected]ceph01 ~]# ceph osd rm 11

removed osd.11

5)、删除所有osd的crush map

[[email protected]ceph01~]# ceph osd crush rm osd.8

removed item id 8 name ‘osd.8‘ from crush map

[[email protected]ceph01 ~]# ceph osd crush rm osd.9

removed item id 9 name ‘osd.9‘ from crush map

[[email protected]ceph01 ~]# ceph osd crush rm osd.10

[[Aremoved item id 10 name ‘osd.10‘ from crush map

[[email protected]ceph01 ~]# ceph osd crush rm osd.11

removed item id 11 name ‘osd.11‘ from crush map

6)、删除所有osd的认证

[[email protected]ceph01 ~]# ceph auth del osd.8

updated

[[email protected]ceph01~]# ceph auth del osd.9

updated

[[email protected]ceph01 ~]# ceph auth del osd.10

updated

[[email protected]ceph01 ~]# ceph auth del osd.11

updated

7)、在ceph osd tree中删除此机器host的crush map

[[email protected]ceph01 ~]# ceph osd crush rm  ceph01

removed item id -4 name ‘ceph01‘ from crush map

8)、卸载所有挂载在osd的硬盘

[[email protected]ceph01 ~]# umount /var/lib/ceph/osd/ceph-8

[[email protected]ceph01 ~]# umount /var/lib/ceph/osd/ceph-9

[[email protected]ceph01 ~]# umount /var/lib/ceph/osd/ceph-10

[[email protected]ceph01 ~]# umount /var/lib/ceph/osd/ceph-11

3、删除掉mds

1、直接关闭此节点的mds进程

[[email protected] ~]# /etc/init.d/ceph stop mds

=== mds.bgw-os-node153 ===

Stopping Ceph mds.ceph01 on ceph013...kill 4981...done

[[email protected]ceph01 ~]#

2、删除此mds的认证

[[email protected]ceph01 ~]# ceph auth del mds.ceph01

updated

时间: 2024-11-03 19:54:01

ceph 添加删除磁盘mon osd mds的相关文章

asm添加删除磁盘

一. ASM_POWER_LIMIT 参数 这个参数 ASM_POWER_LIMIT 参数控制 ASM 后台进程 ARBx 的数量.ARBx 进程用来进行 ASM 磁盘数据重新分布打散.ASM_POWER_LIMIT 取值 从 0 到 11(据说从 10gR2 开始可以设置为 0 ). 当新添加磁盘或者删除磁盘后,ASM 会启动 ARBx 进行 IO 分散操作,该参数值越大,io 越大.这是个非常消耗资源的动作,所以一定要选择系统空闲的时候进行. ASM_POWER_LIMIT 参数官方描述:

linux命令之添加删除磁盘分区

之前已经写过df和fdisk的区别了,df可以显示当前已经挂载的磁盘分区,df -T可以额外显示文件系统类型 fdisk -l可以显示出所有挂载未挂载的分区,但不显示文件类型 在我的虚拟机上有一块分配了40G的硬盘但未使用,使用fdisk -l 对于40G的磁盘就是只显示了 Disk /dev/sdb 40G,并未有对应的Device, 接下来就是对其分区并挂载 1.fdisk /dev/sdb command(m for help):n 接下来一路默认,第一次分区选了p(primary par

ceph磁盘管理添加删除

一.添加osd:当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘:(2)显示osd节点中的硬盘,并重置新的osd硬盘:列出节点磁盘:ceph-deploy disk list rab1擦净节点磁盘:ceph-deploy disk zap rab1 /dev/sbd(或者)ceph-deploy disk zap rab1:/dev/vdb1(3)准备Object Storage Daemon:ceph-deploy osd prepare rab

CephFS提供/添加/删除MDS

部署元数据服务器 每个CephFS文件系统至少需要一个MDS,集群维护者通常会根据需要使用其自动部署工具来启动所需的MDS服务器.推荐使用Rook和ansible(通过ceph-ansible剧本)进行此操作.为了更清晰,我们仍在此处使用systemd命令 MDS的硬件配置 MDS的当前版本是单线程的,大多数MDS活动都需要CPU,包括响应客户机请求.在最强的客户机负载下,MDS使用大约2到3个CPU内核,这是由于其他杂项维护线程协同工作即便如此,仍建议为MDS服务器充分配备具有足够核心的高级C

为虚拟磁盘 添加/删除物理磁盘

为虚拟磁盘 添加/删除物理磁盘 Add-Physicaldisk     此命令用于将指定的物理磁盘添加到虚拟磁盘    在存储池一节已经介绍过将物理磁盘加入存储池的用法,    在这里将介绍在虚拟磁盘上的用法    在正式介绍命令用法之前先回答 在Get-StoragePool,Get-VirtualDisk,New-VirtualDisk    三节中的提问    要获取未被虚拟磁盘使用的物理磁盘,你必须学会灵活的使用管道命令    $pool_pd = @(Get-StoragePool 

ceph_OSD的添加删除

this is my first 'ceph'  article ,just start .....................! ! ! 一,手动增加OSD 在ceph里,一个OSD一般是一个ceph-osd守护进程,它运行在硬盘之上,当集群容量达到使用上限,或接近near full 比率后,需要增加OSD或OSD主机来扩容. 在一个运行的ceph集群里添加一个osd要依次创建数据目录,把硬盘挂载到数据目录,把OSD加入集群,然后把OSD加入CRUSHMAP, ceph集群尽量使用统一 硬

如何恢复,迁移,添加, 删除 Voting Disks

如何恢复,迁移,添加, 删除 Voting Disks恢复流程 在11gR2 之前,我们可以直接直接使用dd命令对voting disk进行备份.DD示例 备份votedisk盘:[[email protected] bin]# dd if=/dev/raw/raw2 of=/home/oracle/voting_disk.bak 恢复votedisk盘:[[email protected] bin]# dd if=/home/oracle/voting_disk.bak of=/dev/raw

教程:使用Diskpart创建、扩展或删除磁盘分区

在Windows Server环境下进行基本的磁盘操作时,管理员可以使用Disk Partition Utility或Diskpart等工具.后者是一个命令行解释器,可作为磁盘管理工具. 管理员可以使用Diskpart扫描新添加的磁盘,同时也可以创建.删除和调整硬盘分区,并分配或重新分配驱动器号. 注意:插入的内容仅作为评论,不连同任何命令进行输入. 使用Diskpart创建一个分区 使用Diskpart分区磁盘非常有利于提升新加入RAID阵列的硬盘的I/O性能.许多服务器应用程序,比如Micr

双链集合添加删除算法

双链集合添加删除算法: package com.linkes; public class MyLinkeList { /** * 更多资料欢迎浏览凯哥学堂官网:http://kaige123.com * @author 小沫 */ /** * 链表集合他是于双链条式进行引用上下家,好处可以知道上家和下家是谁 * 利于修改,可以从首部开始删除数据也可以从尾部删除. * 即可从中间指定位置删除. */ private Object[] shou; private Object[] wei; // 默