ceph osd weight、reweight 数值调整

1、简介

????ceph 集群搭建成功后,很多时候 pg 分布是 不均匀的,此时 就需要 我们 通过 手动调整 weight值,从而 达到 pg相对均衡(本文 针对 有ceph 基础的人,所以 命令 不会 进行解释)
????

# ceph osd tree
ID CLASS WEIGHT  TYPE NAME      STATUS REWEIGHT PRI-AFF
-1       0.20181 root default
-7       0.05499     host mon0
 0   hdd 0.01799         osd.0      up  1.00000 1.00000
 1   hdd 0.01799         osd.1      up  1.00000 1.00000 

????

2、weight 值调整

????weight 代表 osd的权重,1 = 1TB;可以 通过 调整 weight 值 来调整 pg分布;需要注意的是 与容量 之间的 等价关系 只是 认为 量化 出来的,用于 crush 计算的一个 衡量标准
????

2.1 调整命令

# ceph osd crush reweight {name} {float[0.0-1]}

????

2.1 预估 pg分布

#### osdmaptool 实现 预估 pg分布
# osdmaptool /tmp/osdmap --test-map-pgs --import-crush {crushmap}

????

3、reweight 值调整

    reweight 代表 在 weight 的基础上 进行 百分比配比

3.1 调整命令

# ceph osd reweight-by-utilization {avr_num} {float} {osd_num} [--no-increasing]
# ceph osd reweight-by-pg {avr_num} {float} {osd_num} [[pool1] ... [poolN]]

????

3.2 预估 变化

# ceph osd test-reweight-by-utilization {avr_num} {float} {osd_num} [--no-increasing]
# ceph osd test-reweight-by-pg {avr_num} {float} {osd_num} [[pool1] ... [poolN]]

????

原文地址:https://blog.51cto.com/11495268/2382929

时间: 2024-11-02 02:43:46

ceph osd weight、reweight 数值调整的相关文章

ceph osd 删除

1.简介     一般 情况下,osd 是不需要 进行 删除 操作的,但是了,凡事 无绝对:很多时候 还是需要 进行删除 操作(例如,对已经 部署好的 存储 集群 重新 进行 方案的 调整,就需要 对 osd 进行 删除 操作,重新 进行 调整)     2.out osd ## 将osd out ## reweight 会被置为 0,集群会进行数据迁移 ## 相当于进行 "ceph osd reweight <osdname (id|osd.id)> <float[0.0-1

Ceph osd异常退出故障处理

如果一个硬盘故障导致osd节点出现如下的down状态,且一直无法恢复( reweight列等于0,表示osd已经out此集群) [[email protected] ~]# ceph osd tree # id    weight  type name       up/down reweight -1      4       root default -2      1               host os-node5 0       1                       o

更换硬盘跳线,ceph osd 不能正常启动

1.环境说明 使用kolla 部署了ceph,由于osd 0占用于 sata 0通道,需要将系统盘与osd 0的跳线交换,在跳线交换后,osd 0不能正常启动. 2.原因分析: 交换跳线前,osd 0的设备文件为/dev/sda2 ,交换跳线后变为/dev/sdc2,osd在启动时,--osd-journal /dev/sda2,指定日志设备,由于跳线变更后,日志分区设备名称变为/dev/sdc2,而osd 启动依然使用/dev/sda2作日志设备,故启动失败. 3.解决办法: 删除原有dock

ceph osd盘挂掉,无法修复

由于网络更换ip段,导致ceph启动时monitor进程无法启动,解决了这个问题后,ceph能够启动,但一块osd盘坏掉了,错误日志如下: 2014-12-24 10:53:30.353262 7f3fbbd78800 0 ceph version 0.87 (c51c8f9d80fa4e0168aa52685b8de40e42758578), process ceph-osd, pid 9794 2014-12-24 10:53:30.359829 7f3fbbd78800 0 filesto

Linux开机后 systemd 自动启动 ceph osd mon进程

机房操作失误导致机架或主机掉电是偶尔发生的事情,那么怎么在这种情况下,让Ceph服务随OS启动而快速启动呢 ? 如下是一个简单方法: 在OSD主机上执行如下命令: sudo ln -s /usr/lib/systemd/system/[email protected] /etc/systemd/system/multi-user.target.wants/[email protected] sudo systemctl enable [email protected] sudo systemct

如何调整ceph weight权重值

1.通过命令ceph -s 或者ceph health检查ceph 状态,有osd near full cluster bef6d01c-631b-4355-94fe-77d4eb1a6322 health HEALTH_WARN 4 near full osd(s) 2.ceph health detail 查看具体near full 的osd osd.137 is near full at 86%osd.169 is near full at 85%osd.183 is near full

SUSE Ceph 增加节点、减少节点、 删除OSD磁盘等操作 - Storage6

一.测试环境描述 之前我们已快速部署好一套Ceph集群(3节点),现要测试在现有集群中在线方式增加节点 如下表中可以看到增加节点node004具体配置 主机名 Public网络 管理网络 集群网络 说明 admin 192.168.2.39 172.200.50.39 --- 管理节点 node001 192.168.2.40 172.200.50.40 192.168.3.40 MON,OSD node002 192.168.2.41 172.200.50.41 192.168.3.41 MO

ceph add a osd

Proper Way to Remove an OSD  Run 'ceph osd tree' to list OSD devices and look for the number of the failed OSD or the OSD to be removed.  #  ceph osd tree  We are going to remove OSD.8 for example. Login to the OSD node first and start the following

Ceph日常运维管理和排错 -- &lt;7&gt;

Ceph日常运维管理 集群监控管理 集群整体运行状态 [[email protected] ~]# ceph -s cluster: id: 8230a918-a0de-4784-9ab8-cd2a2b8671d0 health: HEALTH_WARN application not enabled on 1 pool(s) services: mon: 3 daemons, quorum cephnode01,cephnode02,cephnode03 (age 27h) mgr: ceph