Ceph:如何查看rbd映射的设备被哪个客户端使用

场景说明:Ceph的RBD设备,通过映射的方式给客户端进行使用,在服务端,你想知道到底某个pool的img被哪个客户端占用着。

# rbd info openshift01/openshift01-img01
rbd image 'openshift01-img01':
    size 102400 MB in 25600 objects
    order 22 (4096 kB objects)
    block_name_prefix: rbd_data.957f238e1f29
    format: 2
    features: layering
    flags:

说明:openshift01为pool的名称,openshift01-img01为img的名称。

# rados -p openshift01 listwatchers rbd_header.957f238e1f29
watcher=172.16.0.48:0/54296760 client.51052 cookie=1

说明:由上面输出结果可以知道,172.16.0.48为被映射的客户端。

原文地址:http://blog.51cto.com/molewan/2069609

时间: 2024-10-22 09:02:59

Ceph:如何查看rbd映射的设备被哪个客户端使用的相关文章

04 ceph 块设备安装,创建,设备映射,挂载,详情,调整,卸载,映射,删除 快照的创建回滚删除

块设备安装,创建,映射,挂载,详情,调整,卸载,曲线映射,删除 在使用Ceph的块设备工作前,确保您的Ceph的存储集群是在主动 + 清洁状态. vim /etc/hosts 172.16.66.144 ceph-client 在admin节点上执行这个快速启动.1. 在admin节点上,用ceph-deploy在你的ceph-client节点安装Ceph ceph-deploy install ceph-client 2. 在admin节点上,用ceph-deploy复制Ceph配置文件和ce

CEPH集群RBD快照创建、恢复、删除、克隆

Ceph支持一个非常好的特性,以COW(写时复制)的方式从RBD快照创建克隆,在Ceph中被称为快照分层.分层特性允许用户创建多个CEPH RBD克隆实例.这些特性应用于OpenStack等云平台中 ,使用快照形式保护ceph RBD 镜像,快照是只读的,但COW克隆是完全可以写 ,可以多次来孵化实例,对云平台来说是非常有用的. Ceph RBD镜像有format-1  和 format-2两种类型,RBD支持这两种类型,但是分层特性COW克隆特性只支持format-2镜像,默认RBD创建的镜像

记录ceph两个rbd删除不了的处理过程

在一个使用的环境发现两个ceph的rbd删除不了,发现两个rbd都是由于残留了watch的信息.在此记录处理过程. 处理方法 [[email protected]2 ~]# rbd rm compute/2d05517a-8670-4cce-b39d-709e055381d6_disk 2018-06-11 13:19:14.787750 7fd05853bd80 -1 librbd: cannot obtain exclusive lock - not removing Removing im

Android 查看 无wifi/usb设备的logcat方法

Android 查看 无wifi/usb设备的logcat方法 一.情况 一个定制Android设备,wifi被去掉,我需要调试一个USB设备这样也无法用usb来输出logcat. 因为这个USB设备需要内核驱动支持,因此无法在其它设备调试. 因此有的方法有,一般想到用蓝牙输出logcat,但这是Android wear 才支持的特性. 在代码中加入捕获错误和异常代码,写入sd卡,这个工作量较大,而且麻烦 二.简单的解决办法 1.安装Android Terminal 软件. 一个可用链接是 ht

ceph 部署后rbd块设备读写只有10M左右,慢的更龟速一样,怎样解决!,求各位博友指点……,感激不尽……

1先描述下我的部署环境: 2台OSD,1台monitor,1台管理服务器,1台client,都是24核,64G内存,1.6T的SSD闪存卡,千兆网卡:目前安装的ceph版本是 0.94.7. 2 目前的现状 我用dd命令写5G数据,使用iostat 观察到%util 立马100%呀,同时await指标都是4000多,而且此时网络带宽也才使用10M左右. 使用fio工具顺序写1G的数据,测试出的bw只有7M多,iops只有800多, fio --name=seqWrite --filename=/

ceph分布式存储实战(5)——ceph存储配置(RBD镜像日常管理)

一.在线调整Ceph RBD的容量大小 1.支持调整ceph RBD的容量大小的底层文件系统     自由的增加或者减少RBD的容量,需要底层文件系统的支持,支持的文件系统有     1.XFS     2.EXT     3.Btrfs     4.ZFS 2.将RBD镜像ceph-client1-rbd1原始容量是10G扩容为20G,(在ceph集群中任意一台节点上)执行的命令如下:     rbd resize rbd/ceph-client1-rbd1 --size 20480     

kvm虚拟机映射磁盘设备

需求:使用openstack云主机+EMC存储实现oracle RAC 分析:由于openstack的磁盘设备由cinder管理,目前cinder同一个卷不支持同时连接到多台云主机,事实上其他公有云上的云磁盘也暂时不支持.故不能通过cinder添加磁盘到云主机. 临时解决方案: 手动把宿主机的磁盘(使用了multipath映射EMC存储)映射到kvm虚拟机上,命令如下: virsh list virsh attach-disk instance-xxxxxxxx /dev/mapper/mpat

Linux进程查看与管理、作业控制、网络客户端工具

写在前面: 博客书写牢记5W1H法则:What,Why,When,Where,Who,How. 本篇主要内容: ● 基础概念介绍 进程优先级 进程状态 ● 进程查看与管理命令     pstree     ps     pgrep/pkill     pidof     top     htop     vmstat     pmap     glances     dstat     kill     killall ● linux作业控制     nice     renice ● 网络客户

获取设备信息——获取客户端ip地址和mac地址

1.获取本地IP(有可能是 内网IP,192.168.xxx.xxx) /** * 获取本地IP * * @return */ public static String getLocalIpAddress() { try { Enumeration<networkinterface> en = NetworkInterface .getNetworkInterfaces(); while (en.hasMoreElements()) { NetworkInterface ni = en.nex