ceph crush 策略配置

0.问题

一个同事搭建了两个主机的集群。ceph -s 后,集群一直会出现

recovery 32402/195672 objects degraded objects degraded  警告。

原因在于,默认3份副本。crush select策略是从host 选择3副本。所以需要修改crush rules.

1. 获取crushmap二进制文件

# ceph osd getcrushmap -o a.map

2.将二进制文件转成文本文件

# crushtool -d a.map -o  b

3.修改rules

# vi b
rule replicated_ruleset {
        ruleset 0
        type replicated
        min_size 1
        max_size 10
        step take default
        step chooseleaf firstn 0 type osd   ###
        step emit
}

4.将文本文件转成二进制文件

# crushtool -c b -o b.map

5.设置crushmap

# ceph osd setcrushmap -i b.map
时间: 2024-08-05 10:11:47

ceph crush 策略配置的相关文章

ceph cache pool配置

0.引入 本文介绍如何配置cache pool tiering. cache pool的作用是提供可扩展的cache,用来缓存ceph的热点数据或者直接用来作为高速pool.如何建立一个cache pool:首先利用ssd盘做一个虚拟的bucket tree, 然后创建一个cache pool,设置其crush映射rule和相关配置,最后关联需要用到的pool到cache pool. 1.建立ssd bucket tree 这是新增ssd bucket(vrack)后的osd tree.其中os

CEPH CRUSH 算法源码分析 原文CEPH CRUSH algorithm source code analysis

原文地址 CEPH CRUSH algorithm source code analysis http://www.shalandis.com/original/2016/05/19/CEPH-CRUSH-algorithm-source-code-analysis/ 文章比较深入的写了CRUSH算法的原理和过程.通过调试深入的介绍了CRUSH计算的过程.文章中添加了些内容. 写在前面 读本文前,你需要对ceph的基本操作,pool和CRUSH map非常熟悉.并且较深入的读过源码. 分析的方法

让EFCore更疯狂些的扩展类库(二):查询缓存、分部sql、表名替换的策略配置

前言 上一篇介绍了扩展类库的功能简介,通过json文件配置sql语句 和 sql语句的直接执行,这篇开始说明sql配置的策略模块:策略管理器与各种策略的配置. 类库源码:github:https://github.com/skigs/EFCoreExtend 引用类库:nuget:https://www.nuget.org/packages/EFCoreExtend/ PM> Install-Package EFCoreExtend 策略管理器功能简介 用于管理策略 与 策略执行器和调用(目前分

日志审计策略配置audit

日志审计策略配置 1.   系统缺省已经开启syslog/rsyslog服务,禁止关闭.系统syslog/rsyslog服务会将所有系统日志自动记录到/var/log/messages文件中,系统日志永久保留. 2.   开启audit审计功能,可以监控指定用户或目录,缺省会监控root的所有登录和操作. l  添加规则到 /etc/audit/audit.rules(RHEL7为/etc/audit/rules.d/audit.rules) 文件中,实现监控所有用户的登录行为,包含用户所有操作

Xen安全架构sHype/ACM策略配置图文教程

实验要求 1.     熟悉Xen虚拟化平台部署: 2.     Xen sHype/ACM安全架构中的Simple TE和Chinese Wall策略及事实上现机制的分析与验证. 第1章           Xen环境部署 1.1           版本号选择 因为Ubuntu使用广泛.软件包易于下载.我们选择Ubuntu系统进行Xen部署. 可选择的LTS系统例如以下[1]: 1)Ubuntu 10.04系统採用的是Linux 2.6.32内核,因为Linux 3.0下面内核不支持Xen[

Ceph radosgw 安装配置

Ceph radosgw对象存储的接口,研究配置了许久,现分享如下.首先配置radosgw的前提,是你已经成功的配置好了Ceph集群,通过ceph –s 查看ceph集群,处于health状态.在这里,ceph集群的auth的配置为none,所以有关auth的部分,也就是访问权限相关的keying部分的配置在这里省略. 1)创建rgw相关的pool ceph osd pool create .rgw 128 128 ceph osd pool create .rgw.root 128 128 c

ceph crush cluster map 基础操作

个人博客首页(点击查看详情) -- https://blog.51cto.com/11495268个人微信公众号(点击查看详情) -- https://blog.51cto.com/11495268/2401194     1.简介     了解 ceph crush cluster map 基本 概念后,本文 描述 cluster map的 基础操作     2.cluster map     创建 集群时 默认 default 节点     2.1 bucket 创建 # ceph osd

F100-M-G 基本域间策略配置

设备存在两种类型的安全域,分别是: Local:本地域 Trust:安全域 DMZ:应用域 Untrust:不安全域 Management:管理域 • 缺省安全域: 不需要通过命令zone name 配置就已经存在的安全域,名称为:Local.Trust.DMZ.Untrust 和Management. • 非缺省安全域: 通过命令 zone name 创建的安全域. 设备安全域之间的互访策略存在两种状态, 一种是优先级访问策略状态, 一种是无优先级访问策略状态. (1) 优先级访问策略状态,安

ceph文件系统安装配置

1     前言 Ceph是一种为优秀的性能.可靠性和可扩展性而设计的统一的.分布式文件系统. l  Ceph OSDs: Ceph OSD 守护进程( Ceph OSD )的功能是存储数据,处理数据的复制.恢复.回填.再均衡,并通过检查其他OSD 守护进程的心跳来向 Ceph Monitors 提供一些监控信息.当 Ceph 存储集群设定为有2个副本时,至少需要2个 OSD 守护进程,集群才能达到active+clean 状态( Ceph 默认有3个副本,但你可以调整副本数). l  Moni