ceph 集群 进程 管理 -- systemctl 管理(哈哈,开启 ceph 篇章)

    哈哈哈,想想 还是 写写 关于 ceph 相关 的文章,本人 能力有限,不能 写出 NB 的 技术文章,不足 之处 愿和 大家 一起 交流,共同 进步
    

1、简介

    作为 集群 管理 人员,可以 通过 很多种 方式 操纵 集群;可以 根据 实际 需要 开启、关闭 和 重启 ceph 进程 服务;本文 简单 描述 了 关于 systemctl 服务 管理 ceph 存储 集群(关于 systemctl 原理 后期 有机会 再 详细描述)
    

2、开启、关闭 和 重启 所有 ceph 服务

# systemctl { start | stop | restart} ceph.target 

    

3、根据 进程 类型 开启、关闭 和 重启 ceph 服务

3.1 mon 进程

# systemctl { start | stop | restart} ceph-mon.target 

    

3.2 mgr 进程

# systemctl { start | stop | restart} ceph-mgr.target 

    

3.3 osd 进程

# systemctl { start | stop | restart} ceph-osd.target 

    

3.4 rgw 进程

# systemctl { start | stop | restart} ceph-radosgw.target 

    

3.5 mds 进程

# systemctl { start | stop | restart} ceph-mds.target 

    

4、根据 进程 实例 开启、关闭 和 重启 所有 ceph 服务

4.1 mon 实例

# systemctl { start | stop | restart} [email protected]{mon_instance}.service

    

4.2 mgr 实例

# systemctl { start | stop | restart} [email protected]{mgr_instance}.service

    

4.3 osd 实例

# systemctl { start | stop | restart} [email protected]{osd_instance}.service

    

4.4 rgw 实例

# systemctl { start | stop | restart} [email protected]{rgw_instance}.service

    

4.5 mds 实例

# systemctl { start | stop | restart} [email protected]{mds_instance}.service

原文地址:http://blog.51cto.com/11495268/2339451

时间: 2024-10-30 15:58:09

ceph 集群 进程 管理 -- systemctl 管理(哈哈,开启 ceph 篇章)的相关文章

ceph分布式存储实战(2)——从0开始创建第一个ceph集群

一.在每台节点的/etc/hosts文件中增加如下内容 192.168.89.101 ceph-node1 192.168.89.102 ceph-node2 192.168.89.103 ceph-node3 二.节点1配置免密码登录其他节点 [[email protected] ~]# yum install openssh-clients #安装ssh客户端 [[email protected] ~]# ssh-keygen #生成密钥对 [[email protected] ~]# ss

ceph集群常用命令

结合网络.官网.手动查询等多方渠道,整理ceph维护管理常用命令,并且梳理常规命令在使用过程中的逻辑顺序.另外整理期间发现ceph 集群的命令体系有点乱,详细情况各自体验. 一:ceph集群启动.重启.停止 1:ceph 命令的选项如下: 选项简写描述 --verbose-v详细的日志. --valgrindN/A(只适合开发者和质检人员)用 Valgrind 调试. --allhosts-a在 ceph.conf 里配置的所有主机上执行,否 则它只在本机执行. --restartN/A核心转储

ceph集群常用命令梳理

结合网络.官网.手动查询等多方渠道,整理ceph维护管理常用命令,并且梳理常规命令在使用过程中的逻辑顺序.另外整理期间发现ceph 集群的命令体系有点乱,详细情况各自体验. 一:ceph集群启动.重启.停止 1:ceph 命令的选项如下: 选项 简写 描述 --verbose -v 详细的日志. --valgrind N/A (只适合开发者和质检人员)用 Valgrind 调试. --allhosts -a 在 ceph.conf 里配置的所有主机上执行,否 则它只在本机执行. --restar

Linux系统Oracle 12cR2 RAC集群安装与维护管理(12.2)专题

风哥Linux系统Oracle 12cR2 RAC集群安装与维护管理(12.2)专题包括内容: Oracle数据库12cR2(项目实战之一):在Windows上安装Oracle12.2 Oracle数据库12cR2(项目实战之五):Oracle12.2 RAC集群实施与维护 Oracle数据库12cR2(项目实战之六):Oracle12.2 RAC集群管理之增删节点 Oracle数据库12cR2(项目实战之七):Oracle12.2 RAC集群管理之修改IP地址 视频学习地址:http://ed

在Kubernetes集群上部署和管理JFrog Artifactory

JFrog Artifactory是一个artifacts仓库管理平台,它支持所有的主流打包格式.构建工具和持续集成(CI)服务器.它将所有二进制内容保存在一个单一位置并提供一个接口,这使得用户在整个应用程序开发和交付过程中,能更易于上传.查找和使用二进制文件. 在本文中我们将介绍如何使用Rancher在Kubernetes集群上部署和管理JFrog Artifactory.在看完本文后,你将会系统地了解JFrog Artifactory OSS的安装设置,并且能够按照同样的步骤在任何Kuber

Ceph 之 使用ceph-deploy部署ceph集群

  上面左边是我的个人微信,如需进一步沟通,请加微信.  右边是我的公众号"Openstack私有云",如有兴趣,请关注. 环境: 系统centos7.4 ceph版本 ceph version 10.2.10 测试服务器为kvm虚拟机(openstack虚拟机) 本篇文章是记录下自己的部署过程,服务器使用kvm虚拟机,只测试功能,服务器分配如下 节点 服务 cluster network ceph-1(admin-node) osd.{1,2,},mon.ceph-1 eth0:19

Ceph集群由Jewel版本升级到Luminous版本

参考文档 https://www.virtualtothecore.com/en/upgrade-ceph-cluster-luminous/http://www.chinastor.com/distristor/11033L502017.html 缘起 首先看之前安装版本链接及测试http://blog.51cto.com/jerrymin/2139045http://blog.51cto.com/jerrymin/2139046mon ceph0.ceph2.cphe3osd ceph0.c

Ceph 集群搭建

Ceph 存储集群 - 搭建存储集群 2019年8月1日 16:12 Ceph 存储集群 - 搭建存储集群 目录 一.准备机器 二.ceph节点安装 三.搭建集群 四.扩展集群(扩容) 一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4台机器,其中1个是管理节点,其他3个是ceph节点: hostname ip role 描述 admin-node 192.168.0.130 ceph-deploy 管理节点 node1 192

Ubuntu 14.04 部署 CEPH集群

注:下文的所有操作都在admin节点进行 1.准备三台虚拟机,其中一台作为admin节点,另外两台作为osd节点,并相应地用hostname命令将主机名修改为admin,osd0,osd1,最后修改/etc/hosts文件如下所示 127.0.0.1 localhost 10.10.102.85 admin 10.10.102.86 osd0 10.10.102.87 osd1 2.配置免密码访问 ssh-keygen //一直按回车即可,产生公钥私钥对 ssh-copy-id -i /root