Ceph的设置

Ceph的设置

一个Ceph集群至少运行两类进程:

  • Ceph Monitor(ceph-mon)
  • Ceph OSD Daemon(ceph-osd)

如果需要支持Ceph Filesystem则至少要运行一个Ceph Metadata Server(ceph-mds). 支持Ceph对象存储的集群需要运行Ceph Gateway进程(radosgw)

所有的守护进程都有一系列的默认值, 这部分是在ceph/src/common/config_opts.h中定义的, 可以通过配置文件来覆盖这些设置值

每个进程启动时, 默认从ceph.conf获取集群配置的设置. 以下是ceph.conf中涉及的配置:

    Cluster Identity
    Authentication settings
    Cluster membership
    Host names
    Host addresses
    Paths to keyrings
    Paths to journals
    Paths to data
    Other runtime options

1. 读取顺序

Ceph相关进程在读取配置时, 遵循以下的查找顺序

  1. $CEPH_CONF环境变量所指定的配置
  2. -c path/path 参数所指定的配置
  3. /etc/ceph/ceph.conf
  4. ~/.ceph/config (HOME目录下.ceph目录的config文件)
  5. ./ceph.conf (当前目录下的ceph.conf)

2. 语法格式

Ceph配置文件使用INI语法, 使用#或;来注释, 例如

# 这是注释.
; 这也是注释
# 注释以#或;开始
# 注释所在每行的结尾也是注释的结束
# 建议在配置文件中加入相关的注释

3. 配置段

[global]
说明: 全局配置, 影响集群中的所有Ceph进程
样例: auth supported = cephx

[osd]
说明: osd相关配置, 对所有OSD生效, 会覆盖global相关的配置
样例: osd journal size = 1000

[mon]
说明: mon相关配置, 对所有MON生效, 会覆盖global相关的配置
样例: mon addr = 10.0.0.101:6789

[mds]
说明: mds相关配置, 对所有mds生效, 会覆盖global相关的配置
样例: host = myserver01

[client]
说明: ceph client相关配置 (例如, 挂载 Ceph Filesystems, 挂载 Ceph Block Devices, 等等.).
样例: log file = /var/log/ceph/radosgw.log

3.1 global设置

Global设置会影响集群中的所有Ceph实例. 全局化的配置建议放在Global配置段中, 对所有daemon生效, 同时你还可以在[osd],[mon],[mds]等配置段中覆盖对应的设置, 或在特定daemon的配置段如[osd.1]中来覆盖对应的配置. 在[osd],[mon],[mds]中覆盖对应的global设置, 将影响相关类型的所有Ceph daemon, 如果你只需要对某个daemon生效, 需要在特定daemon的配置段中设置

一个典型的全局设置如打开身份验证:

[global]
#在集群中的host之前打开认证
#v 0.54 或更早的版本
auth supported = cephx

#v 0.55 和 0.55之后的版本
auth cluster required = cephx
auth service required = cephx
auth client required = cephx

3.2 各类型daemon的设置

[osd]
# 针对所有osd的设置

[mon]
#针对所有mon的设置

[mds]
#针对所有mds的设置

3.3 指定daemon的设置

[osd.1]
# 针对osd.1实例的设置

[mon.a]
# 针对mon.a实例的设置

[mds.b]
# 针对mds.b实例的设置

如果你需要对Ceph Gateway某个client进行设置, 需要指定daemon类型和实例名, 使用.号分隔, 如下:

[client.radosgw.instance-name]
# 针对 radosgw某个实例的配置

元变量

使用元变量可以简化Ceph集群配置文件, Ceph会对应替换对应的变量值, Ceph元变量有点类似bash的变量, 以下是Ceph支持的变量名

变量名 说明 用法例子 默认值
$cluster Ceph集群名,在同个硬件集群中运行多个Ceph集群时比较有用 /etc/ceph/$cluster.keyring ceph
$type 实例的类型(如mon,mds,osd) /var/lib/ceph/$type  
$id 实例的标记符, 如osd.0则为0, mds.a则为a /var/lib/ceph/$type/$cluster-$id  
$host 实例所在的host的hostname    
$name 等于type.id /var/run/ceph/$cluster-$name.asok  

原文地址:https://www.cnblogs.com/lifei02/p/9894801.html

时间: 2024-10-20 18:03:22

Ceph的设置的相关文章

CEPH RGW 设置 user default_placement为ssd-placement,优化100KB-200KB小文件性能,使用户创建的bucket对象放置到 SSD设备上。

sudo radosgw-admin metadata get user:tuanzi > user.md.json vi user.md.json #to add ssd-placement { "key": "user:tuanzi", "ver": { "tag": "__gHSAD0K7rEZcQ2m3qT_RWk", "ver": 1 }, "mtime&quo

Ceph性能优化总结(v0.94)

如需转载请标明作者,原文地址:http://xiaoquqi.github.io/blog/2015/06/28/ceph-performance-optimization-summary/ 最近一直在忙着搞Ceph存储的优化和测试,看了各种资料,但是好像没有一篇文章把其中的方法论交代清楚,所以呢想在这里进行一下总结,很多内容并不是我原创,只是做一个总结.如果其中有任何的问题,欢迎各位喷我,以便我提高. 优化方法论 做任何事情还是要有个方法论的,"授人以鱼不如授人以渔"的道理吧,方法通

Ceph架构及性能优化

对分布式存储系统的优化离不开以下几点: 1. 硬件层面 硬件规划 SSD选择 BIOS设置 2. 软件层面 Linux OS Ceph Configurations PG Number调整 CRUSH Map 其他因素 硬件层面 1.  CPU ceph-osd进程在运行过程中会消耗CPU资源,所以一般会为每一个ceph-osd进程绑定一个CPU核上. ceph-mon进程并不十分消耗CPU资源,所以不必为ceph-mon进程预留过多的CPU资源. ceph-msd也是非常消耗CPU资源的,所以

ceph工作原理和安装

一.概述 Ceph是一个分布式存储系统,诞生于2004年,最早致力于开发下一代高性能分布式文件系统的项目.随着云计算的发展,ceph乘上了OpenStack的春风,进而成为了开源社区受关注较高的项目之一.Ceph有以下优势: 1. CRUSH算法 Crush算法是ceph的两大创新之一,简单来说,ceph摒弃了传统的集中式存储元数据寻址的方案,转而使用CRUSH算法完成数据的寻址操作.CRUSH在一致性哈希基础上很好的考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房.机架感知等.C

基于centos6.7的Ceph分布式文件系统安装指南

Ceph是加州大学Santa Cruz分校的Sage Weil(DreamHost的联合创始人)专为博士论文设计的新一代自由软件分布式文件系统.自2007年毕业之后,Sage开始全职投入到Ceph开 发之中,使其能适用于生产环境.Ceph的主要目标是设计成基于POSIX的没有单点故障的分布式文件系统,使数据能容错和无缝的复制.2010年3 月,Linus Torvalds将Ceph client合并到内 核2.6.34中. 关于Ceph的详细介绍见:Ceph:一个 Linux PB 级分布式文件

ceph安装

网络配置 10.0.0.100      cephdeploy 10.0.0.110cephmon1 10.0.0.120cephmon2 10.0.0.130cephosd1 10.0.0.140cephosd2 10.0.0.150cephosd3 添加release 和ceph包 wget -q -O- 'https://download.ceph.com/keys/release.asc' | sudo apt-key add - echo deb http://download.cep

ceph集群搭建

一.安装前准备: 1.系统:Centos7.4 x64 [[email protected]de1 ~]# cat /etc/redhat-release CentOS Linux release 7.4.1708 (Core) 2.主机: 主机名 地址 角色 ceph-node1 10.0.70.40 Deploy.mon1.osd*2 ceph-node2 10.0.70.41 mon1.osd*2 ceph-node3 10.0.70.42 mon1.osd*2 3.三台主机,每台主机有两

高可用OpenStack(Queen版)集群-13.分布式存储Ceph

参考文档: Install-guide:https://docs.openstack.org/install-guide/ OpenStack High Availability Guide:https://docs.openstack.org/ha-guide/index.html 理解Pacemaker:http://www.cnblogs.com/sammyliu/p/5025362.html Ceph: http://docs.ceph.com/docs/master/start/int

高可用OpenStack(Queen版)集群-15.Glance&Cinder集成Ceph

参考文档: Install-guide:https://docs.openstack.org/install-guide/ OpenStack High Availability Guide:https://docs.openstack.org/ha-guide/index.html 理解Pacemaker:http://www.cnblogs.com/sammyliu/p/5025362.html Ceph: http://docs.ceph.com/docs/master/start/int