ceph存储池基本管理

一,设置默认存储池的pg或pgp的值(推荐100左右),在ceph.conf文件里增加:

osd pool default pg num = 100
osd pool default pgp num = 100

二,新建一个存储池:

ceph osd pool create cp-chengang 100

三,设置存储池配额(字节或是对象)

ceph osd pool set-quota cp-chengang max_objects 10000

四,存储池更名:

ceph osd pool rename cp-chengang cp-sky

五,存储池快照

ceph osd pool mksnap cp-sky cp-sky-snap

六,查看存储池统计信息:

rados df

七,查看或设置指定存储池的指定设置(set 或 get )

ceph osd pool set cp-sky size 3
ceph osd pool get cp-sky size 

八,查看所有存储池

 ceph osd lspools
 ceph osd dump
 ceph osd dump|grep cp-sky  #此命令巨有用,可以获取指定存储的几乎所有设置数据

时间: 2024-10-08 19:22:22

ceph存储池基本管理的相关文章

004 ceph存储池

介绍:前面已经使用deploy和ansble部署了ceph集群,现在对集群的池进行简单介绍和简单操作 一.部分概念 池是ceph存储集群的逻辑分区,用于存储对象 对象存储到池中时,使用CRUSH规则将该对象分配到池中的一个PG,PG根据池的配置和CRUSH算法自动映射一组OSD池中PG数量对性能有重要影响.通常而言,池应当配置为每个OSD包含的100-200个归置组 创建池时.ceph会检查每个OSD的PG数量是否会超过200.如果超过,ceph不会创建这个池.ceph3.0安装时不创建存储池.

ceph简单用户管理

一,列出所有用户: ceph auth list installed auth entries: mds.ceph-node1 key: AQB/+I5ZFdcwERAAg0eP7SyDg84DZUlvKzBGuA== caps: [mds] allow caps: [mon] allow profile mds caps: [osd] allow rwx osd.0 key: AQD49o5ZCatkBBAAZ31OL9xJ78XYI6sPXb9z7A== caps: [mon] allow

Ceph存储池full等处理方式

1.查看当前集群full以及nearfull的设置值,在Mon节点查询Mon配置 ceph --admin-daemon /run/ceph/ceph-mon.IP.asok config show | grep full_ratio 2.查看当前集群full以及nearfull的设置值,在其他节点查询osd配置 ceph --admin-daemon /run/ceph/ceph-osd.0.asok config show | grep full 3.遇到集群full的告警,并且存储不能写入

红帽存储管理1——可信任存储池和brick的管理

红帽存储管理1 一.可信任存储池的管理 存储池是一个存储服务器的集合,当一台服务器开启glusterd服务时,可信任存储池只有它自己本身,那么我们要将其他的服务器加入可信任存储池该怎么加呢?命令# gluster peer probe [server],前提是其他的服务器也必须开启glusterd服务,[Server]可以是ip地址也可以是服务器名,前提是服务器名必须能够被解析. [[email protected] ~]# gluster peer probe rhs1 peer probe:

ceph存储扩容(新盘新建存储池)

1.换上新盘后先使用命令做raid2.ceph创建新存储池(注:需要在存储安装完成后操作)2.1修改/etc/ceph/ceph查看是否关闭自动生成crushmap 若已经关闭,则无需其他操作:若没有关闭,关闭后需重启ceph的服务使其生效[[email protected] ~]# systemctl restart ceph.target 2.2新建目录扩区当前集群应用的crushmap[[email protected] ~]# mkdir /root/cluster/[[email pr

CEPH块存储管理

一.检查CEPH和集群各参数 1.检查ceph安装状态: 命令:ceph –s 或者 ceph status(显示结果一样) 示例: [email protected]:/home/ceph/ceph-cluster# ceph -s cluster 2f54214e-b6aa-44a4-910c-52442795b037 health HEALTH_OK monmap e1: 1 mons at {node1=192.168.2.13:6789/0}, election epoch 1,quo

ceph总结

ceph系统 1 流程说明 1.1 应用 1) RADOS GW是一个提供与Amazon S3和Swift兼容的RESTful API的gateway,以供相应的对象存储应用开发使用.RADOS GW提供的API抽象层次更高,但功能则不如librados强大.因此,开发者应针对自己的需求选择使用. 2) RBD则提供了一个标准的块设备接口,常用于在虚拟化的场景下为虚拟机创建volume.目前,Red Hat已经将RBD驱动集成在KVM/QEMU中,以提高虚拟机访问性能. 3) Ceph FS是一

(转)Ceph常规操作及常见问题梳理

Ceph集群管理 1 每次用命令启动.重启.停止Ceph守护进程(或整个集群)时,必须指定至少一个选项和一个命令,还可能要指定守护进程类型或具体例程. **命令格式如 1 {commandline} [options] [commands] [daemons] 常用的commandline为"ceph",对应的options如下表: 对应的commands如下表: 能指定的daemons(守护进程)类型包括mon,osd及mds. 通过SysVinit机制运行ceph: 1 在 Cen

Gluster vs Ceph:开源存储领域的正面较量

https://www.oschina.net/news/49048/gluster-vs-ceph 引言:开源存储软件Ceph和Gluster能够提供相似的特性并且能够为用户节省不小的开支.那么谁更快?谁又更易用呢? 开源的Ceph及Red Hat旗下的Gluster都是成熟的技术,但兴许不久之后就将经历某种重生了.随着存储产业开始向扩展性存储及云的方向发展,将不断会有基于这些低价的软件技术的产品推向市场,而对这些自集成解决方案的补充在近一年来不断涌现. Ceph与Gluster在原理上有着本