从ceph集群中删除MDS server

如果你不需要cephfs,MDS就成了多余的。为了提高性能,可以把MDS卸载掉。

首先停止所有的MDS daemon:

$ sudo service ceph stop mds
=== mds.0 ===
Stopping Ceph mds.0 on server-3...kill 1190...done

然后在ceph.conf中删掉MDS相关的内容:

[mds]
    keyring = /etc/ceph/keyring.$name
[mds.0]
    host = server-3

然后进行删除:

$ ceph mds rm mds.0
mds gid 0 dne

有时虽然删除了,但在log中还是会出现mds的信息:

$ ceph health
HEALTH_WARN mds 0 is laggy
$ ceph mds stat
e35: 1/1/1 up {0=0=up:active(laggy or crashed)}

可以用以下命令解决:

$ ceph mds newfs metadata data --yes-i-really-mean-it
new fs with metadata pool 0 and data pool 0
$ ceph health
HEALTH_OK

新版本中需要将metadata、data等pool换成相应的id。

最后将cephfs相关的包卸载掉:

$ sudo apt-get purge ceph-fuse ceph-mds libcephfs1 -y

从ceph集群中删除MDS server

时间: 2024-08-04 18:07:49

从ceph集群中删除MDS server的相关文章

运维之我的docker-swarm集群中删除节点和服务

删除swam节点 如果有的确实想要从swarm集群中删除,你应该先把这个节点容器排空,然后再把节点从集群中去掉. 排空节点(其实就是把这个节点上的容器先从其它节点启动,再停掉排空节点上的容器,保证你定义服务的预先状态不受影响) docker node update --availability drain g36lvv23ypjd8v7ovlst2n3yt 删除指定节点 docker node rm  node9 docker node rm --force node9 删除服务 删除服务以后容

Ceph集群中如何摘除一个包含mon、osd和mds的节点

步骤如下: 1.摘除mon [[email protected] ~]# ceph mon remove bgw-os-node153 removed mon.bgw-os-node153 at 10.240.216.153:6789/0, there are now 2 monitors 2.摘除此节点上所有的osd 1).查看此节点的osd [[email protected] ~]# ceph osd tree -4      1.08                    host bg

Redis集群中删除/修改节点(master、slave)(实验)

删除一个slave节点: # redis-trib.rb del-node 192.168.2.202:6380 e4dc23dc67418bf66c6c63655110612cb9516aff // del-node  host:port  node-id >>> Removing node e4dc23dc67418bf66c6c63655110612cb9516aff from cluster 192.168.2.202:6380 >>> Sending CLUS

ceph 集群报 mds cluster is degraded 故障排查

ceph 集群版本: ceph -vceph version 10.2.7 (50e863e0f4bc8f4b9e31156de690d765af245185) ceph -w 查看服务状态: mds cluster is degraded      monmap e1: 3 mons at {ceph-6-11=172.16.6.11:6789/0,ceph-6-12=172.16.6.12:6789/0,ceph-6-13=172.16.6.13:6789/0}             el

ceph集群常用命令

结合网络.官网.手动查询等多方渠道,整理ceph维护管理常用命令,并且梳理常规命令在使用过程中的逻辑顺序.另外整理期间发现ceph 集群的命令体系有点乱,详细情况各自体验. 一:ceph集群启动.重启.停止 1:ceph 命令的选项如下: 选项简写描述 --verbose-v详细的日志. --valgrindN/A(只适合开发者和质检人员)用 Valgrind 调试. --allhosts-a在 ceph.conf 里配置的所有主机上执行,否 则它只在本机执行. --restartN/A核心转储

ceph集群常用命令梳理

结合网络.官网.手动查询等多方渠道,整理ceph维护管理常用命令,并且梳理常规命令在使用过程中的逻辑顺序.另外整理期间发现ceph 集群的命令体系有点乱,详细情况各自体验. 一:ceph集群启动.重启.停止 1:ceph 命令的选项如下: 选项 简写 描述 --verbose -v 详细的日志. --valgrind N/A (只适合开发者和质检人员)用 Valgrind 调试. --allhosts -a 在 ceph.conf 里配置的所有主机上执行,否 则它只在本机执行. --restar

Openstack之Ceph集群操作

Oepnstack之CEPH系列是根据Ceph Cookbook整理的笔记,分为以下几个部分: 1. <Ceph简介> 2. <Ceph集群操作> 3. <Ceph块设备管理与Openstack配置> 4. <深入Ceph> 5. <ceph优化与性能测试> **注意:此文对应ceph版本为10.1.2** ~~~bash #ceph -v ceph version 10.1.2(4a2a6f72640d6b74a3bbd92798bb913ed

ceph集群osd故障修复实例演示

集群安装方式:1: ceph-deploy 方式安装ceph集群,模拟osd磁盘损坏: 分别采用如下两种方式修复: 1:使用ceph-deploy 方式修复故障osd: 2:手动修复故障osd: #######使用ceph-deploy方式修复过程演示######## 1:停止osd/etc/init.d/ceph stop osd.3 2:查看osd磁盘挂载情况:[[email protected] ceph]# lsblk NAME   MAJ:MIN RM  SIZE RO TYPE MO

【Ceph】手动搭建ceph集群

手动部署Ceph集群 3台ceph机器 hostname IP mon_id 磁盘快 journal Ceph1 192.168.1.1 0 /dev/sdb2 /dev/sdb1 Ceph2 192.168.1.2 1 /dev/sdb2 /dev/sdb1 Ceph3 192.168.1.3 2 /dev/sdb2 /dev/sdb1 下载部署所需要的ceph集群的rpm包ceph-mon ceph-common fcgi ceph-base ceph-selinux ceph-mgr ce