Ceph Cache Tier

CacheTier是ceph服务端缓存的一种方案,简单来说就是加一层Cache层,客户端直接跟Cache层打交道,提高访问速度,后端有一个存储层,实际存储大批量的数据。

分层存储的原理,就是存储的数据的访问是有热点的,数据并非均匀访问。有个通用法则叫做二八原则,也就是80%的应用只访问20%的数据,这20%的数据成为热点数据,如果把这些热点数据保存性能比较高的SSD磁盘上,就可以提高响应时间。

性能较高的存储,一般由SSD 磁盘组成,称之为Cache 层,hot层,Cache pool 或者 hot pool,访问性能比较低的存储层就称为 base pool 或者 data pool,cold pool 等。

一、ceph cache mode

1、WriteBack模式:

客户端写入cache层,cache层应答,并且及时的写入back层,并删除掉cache层数据。客户端读取时,如果cache层不存在该数据,则从back层迁移数据过来,服务读取请求,一直可以服务到有效期内,适合于大量修改的数据应用场景(例如图片视频编辑, 联机事务处理类应用),适合”热”数据。

2、Read-only模式:

读请求直接发送给cache pool,写请求并不经过cache pool,而是直接发送给back_pool.客户端写数据时,直接写入到back层,客户端读取时,cache层从back层拷贝数据,并在有效期内服务,过期的数据会被删除,这种方式的优点就是,cache pool 设置为单副本就可以了,即使cache pool 层失效,也不会有数据的丢失。这种模式比较适合数据一次写入,多次读取的应用场景。例如图片,视频, 音频等。适合数据。

 

3、Read-forward模式:

写的时候,和WriteBack模式一样;读的时候,如果cache层不存在该对象,则会转发读请求到back层。

4、Read-proxy模式:

和Read-forward模式相似,读取的时候不是转发客户端的请求,而是代表客户端去读取back层的数据。

二、使用Cache Tier步骤

1、创建2个pool

ceph osd poolcreate cachepool 150 150
ceph osd poolcreate backpool 150 150

2、关联2个pool

 cephosd tier add backpool cachepool

3、设置cache模式

ceph osd tiercache-mode cachepool writeback
#writeback|forward|readonly|readforward四种模式根据需求选择

4、设置over-lay

所谓overlay,即所有发送到后端存储层的请求会被转发到cache层。

ceph osd tierset-overlay backpool cachepool

三、配置cache tier

cephosd pool set foo-hot hit_set_type bloom
cephosd pool set foo-hot hit_set_count 1
cephosd pool set foo-hot hit_set_period 3600  # 1 hour
ceph osd pool set foo-hot target_max_bytes1000000000000  # 1 TB
ceph osd pool set foo-hottarget_max_objects 1000000       # 1million objects
ceph osd pool set foo-hotcache_min_flush_age 600   # 10 minutes
ceph osd pool set foo-hotcache_min_evict_age 1800   # 30 minutes

Cache层的阈值

ceph osd pool set cachepooltarget_max_bytes 1099511627776
ceph osd pool set cachepooltarget_max_objects 1000000
ceph osd pool set cachepoolcache_target_dirty_ratio 0.4
ceph osd pool set cachepoolcache_target_full_ratio 0.8
ceph osd pool set cachepool  cache_min_flush_age 600
ceph osd pool set cachepoolcache_min_evict_age 1800

删除cache tier(Read-only)

ceph osd tier cache-mode cachepool none
ceph osd tier remove backpool cachepool

删除cache tier(Write-back)

ceph osd tier cache-mode cachepool forward
rados -p cachepool ls
rados -p cachepool cache-flush-evict-all
ceph osd tier remove-overlay backpool
ceph osd tier remove backpool cachepool
时间: 2024-08-26 11:26:44

Ceph Cache Tier的相关文章

ceph cache pool配置

0.引入 本文介绍如何配置cache pool tiering. cache pool的作用是提供可扩展的cache,用来缓存ceph的热点数据或者直接用来作为高速pool.如何建立一个cache pool:首先利用ssd盘做一个虚拟的bucket tree, 然后创建一个cache pool,设置其crush映射rule和相关配置,最后关联需要用到的pool到cache pool. 1.建立ssd bucket tree 这是新增ssd bucket(vrack)后的osd tree.其中os

CEPH Cache Tiering

Cache Tiering的基本思想是冷热数据分离,用相对快速/昂贵的存储设备如SSD盘,组成一个Pool来作为Cache层,后端用相对慢速/廉价的设备来组建冷数据存储池. Ceph Cache Tiering Agent处理缓存层和存储层的数据的自动迁移,对客户端透明操作透明.Cahe层有两种典型使用模式: 1)Writeback模式 Ceph客户端直接往Cache层写数据,写完立即返回,Agent再及时把数据迁移到冷数据池.当客户端取不在Cache层的冷数据 时,Agent负责把冷数据迁移到

Ceph亚太地区路演首站总结及Ceph中国发展思考

2016年8月20日,Ceph亚太地区路演首站--北京站的活动如期在英特尔中国研究院举办,会议吸引了各路国内外"英雄好汉"齐聚一堂,场面异常火爆. 参照去年参加Ceph Day的惯例(http://www.csdn.net/article/2015-06-08/2824891)对今天的会议做一个的总结. 会议开始前,来自于Intel的Zhang Jian介绍了Intel对于Ceph社区的一些主要贡献. 第二个演讲主题是来自于Ceph社区的Patrick大叔,开讲前放了一个很炫酷的Dem

浅谈Ceph纠删码

目  录第1章 引言 1.1 文档说明 1.2 参考文档 第2章 纠删码概念和原理 2.1 概念 2.2 原理 第3章 CEPH纠删码介绍 3.1 CEPH纠删码用途 3.2 CEPH纠删码库 3.3 CEPH纠删码数据存储 3.3.1 编码块读写 3.3.2 间断全写 3.4 使用范围 3.4.1 冷数据 3.4.2 廉价多数据中心存储 第4章 CEPH纠删码实例 4.1 数据读写 4.2 纠删码池不支持部分功能 4.3 纠删码PROFILE 4.4 CECHE TIER弥补ERASURE的缺

Ceph环境搭建(二)

一.布局 主机共有node1,node2,node3三个,每台主机有三个OSD,如下图所示,其中osd1,3,5,6,7,8为SSD盘,2,3,4为SATA盘. 三台主机上各有一个Monitor,也各有一个MDS. 我们用osd1,3,4建一个pool名叫ssd,采用三副本的形式,osd0,2,4建一个Pool名字叫sata,采用纠删码的形式,k=2,m=1,即用两个osd存数据分片,一个osd存校验信息,osd6,7,8建一个pool名叫metadata用来存放cephfs的元数据. pool

管理ceph缓存池

目录 缓存池简介 缓存池原理 缓存池的工作模式 配置缓存池 1. 创建一个缓存池 2. 设置缓存层 3. 缓存层相关参数说明 4. 测试缓存池 删除缓存池 1. 删除read-only缓存池 2. 删除writeback缓存池 缓存池简介 缓存池原理 ceph的缓存分层特性是在ceph的F版当中正式发布的.所谓的缓存分层其实就是在更快的磁盘(通常是ssd)上创建一个存储池.然后将这个存储池放置在常规的复制池或者纠删码池的前端充当缓存.这样所有的客户端I/O操作都首先由缓存池处理,之后再将数据写回

超融合架构真的完美吗?

最早大概是由NUTANIX知道"超融合"概念,原本以为这又是厂商的噱头和炒作,谁知不然,超融合这两年发展如火如荼.2015年被公认为超融合元年,在软件定义存储SDS的推动下,超融合架构正在引领一场巨大的变革,成为软件定义数据中心SDDC的未来技术发展趋势. 超融合架构的优势和客户价值这个已经勿容置疑,各个厂商和媒体已经成功地帮客户洗脑了,和客户交流不提超融合都俨然被认为落伍,这里不用也不想再赘述.从辩证角度看,任何事物都不可能是完美的,超融合是不是也存在一些问题或局限性呢?超融合有适用

存储相关的基于Intel体系的计算机体系结构演进

存储相关的基于Intel体系的计算机体系结构演进2 磁盘是怎么记录0和1以及感知的,磁头结构3 HMR PMR HAMR SMRTDMR,以及磁头定位纠偏原理4 磁盘寻道演示及其他5 混合硬盘.冲氦硬盘.磁盘节能相关6 IP硬盘7 内核IO路径.SCSI协议体系结构8 主流Raid类型原理,Raid卡架构,Raid卡电容+Flash保护方案9 NAND Flash组成和读写原理及性能10 主流Flash产品介绍11 Flash控制器内部架构分析12 NVMe及SFF8639接口13 NVRAM.

存储性能优化方向整理

0概述 0.1 存储性能优化指标 io速率:速率提升数值和百分比 iops:iops提升数值和百分比 0.2 优化方向概述 块存储优化方向:优化的工作,基本上都是在底层,上层只是一些配置. 这些底层的技术适用于ceph块设备,主要是ceph还有自身的一些配置.缓存方案可以拿过来用,在最后补充一下. 底层包括qemu/kvm/kernel三个层面,kernel又主要是filesystem.scsi和block这部分和存储关系最大,也是存储系统由上而下的三部分.我认为如果优化的话,主要工作在这几个方