############在线调整ceph RBD 大小##########
Ceph 支持自动精简配置的块设备,也就是说 只有当把数据存储到这个块设备时,才
会真正地使用物理存储空间,ceph RADOS 设备非常灵活,你可以自由地增加或者减少RBD的容量 当然,这需要底层的文件系统也支持调整容量。高级文件系统(例如 XFS ,Btrfs,EX ZFS)都支持在指定条件下调整文件系统容量。
#(1)客户端中查看remote_rbd71容量
[[email protected] /]# rbd --image remote_rbd71 info
rbd image ‘remote_rbd71‘:
size 100 GiB in 25600 objects
order 22 (4 MiB objects)
snapshot_count: 0
id: 148fdf5968ea2
block_name_prefix: rbd_data.148fdf5968ea2
format: 2
features: layering, exclusive-lock
op_features:
flags:
create_timestamp: Mon Aug 26 15:23:16 2019
access_timestamp: Mon Aug 26 15:23:16 2019
modify_timestamp: Mon Aug 26 15:23:16 2019
#(2)集群中升级remote_rbd71容量到150G
[[email protected] /]# rbd resize rbd/remote_rbd71 --size 150G
#(3)客户端进行查看remote_rbd71容量,已经扩容成功
[[email protected] /]# rbd --image remote_rbd71 info
rbd image ‘remote_rbd71‘:
size 150 GiB in 38400 objects
order 22 (4 MiB objects)
snapshot_count: 0
id: 148fdf5968ea2
block_name_prefix: rbd_data.148fdf5968ea2
format: 2
features: layering, exclusive-lock
op_features:
flags:
create_timestamp: Mon Aug 26 15:23:16 2019
access_timestamp: Mon Aug 26 15:23:16 2019
modify_timestamp: Mon Aug 26 15:23:16 2019
#(4)查看客户端大小,还是100G
[[email protected] /]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/centos-root 46G 12G 34G 26% /
devtmpfs 7.8G 0 7.8G 0% /dev
tmpfs 7.8G 0 7.8G 0% /dev/shm
tmpfs 7.8G 113M 7.7G 2% /run
tmpfs 7.8G 0 7.8G 0% /sys/fs/cgroup
/dev/sda1 1014M 180M 835M 18% /boot
tmpfs 1.6G 0 1.6G 0% /run/user/0
/dev/rbd0 100G 33M 100G 1% /mnt
#(5)操作系统 在线调整文件系统容量,在大量读写的情况下可能比较慢
[[email protected] ~]# xfs_growfs -d /mnt/
[[email protected] /]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/centos-root 46G 12G 34G 26% /
devtmpfs 7.8G 0 7.8G 0% /dev
tmpfs 7.8G 0 7.8G 0% /dev/shm
tmpfs 7.8G 113M 7.7G 2% /run
tmpfs 7.8G 0 7.8G 0% /sys/fs/cgroup
/dev/sda1 1014M 180M 835M 18% /boot
tmpfs 1.6G 0 1.6G 0% /run/user/0
/dev/rbd0 100G 33M 150G 1% /mnt
原文地址:https://blog.51cto.com/7603402/2432709