ceph的读写性能测试

block 读写顺序 读写数据 线程数 IOPS 带宽速度 运行时间 s
4K Rados 随机读 174M 16 15563 60.7961MB/s 2
顺序读 174M 16 13199 51.5621MB/s 2
随机写 174M 16 1486 5.80794MB/s 30
4K RBD 随机读 17.6G 16 104000 587.7MB/s 30
顺序读 2.2G 16 23800 74MB/s 30
随机写 571M 16 2352 19MB/s 30
顺序写 43M 16 352 1.4MB/s 30
16K Rados 随机读 615m 16 13530 211.416MB/s 2
顺序读 615m 16 10842 169.419MB/s 3.7
随机写 615M 16 1313 20.52864MB/s 30
16K RBD 随机读 56G 16 120000 1881MB/s 30
顺序读 10G 16 25600 363MB/s 30
随机写 1.9G 16 2854 65.8MB/s 30
顺序写 170M 16 384 5.7MB/s 30
512K Rados 随机读 8.88G 16 4218 2109.11MB/s 3
顺序读 8.88G 16 4062 2031.33MB/s 4
随机写 8.88G 16 592 296.0093MB/s 30
512K RBD 随机读 54G 16 3719 1814.6MB/s 30
顺序读 56G 16 2834 1879.8MB/s 30
随机写 32G 16 1649 1082.5MB/s 30
顺序写 9G 16 1650 303.8KB/s 30
ceph 针对大块的文件读写性能最好 高达2GB/s
rados读比写高出10倍的速率
时间: 2024-10-06 16:38:49

ceph的读写性能测试的相关文章

InfluxDB读写性能测试

今天进行了InfluxDB和MySQL的对比测试,这里记录下结果,也方便我以后查阅. 操作系统: CentOS6.5_x64InfluxDB版本 : v1.1.0MySQL版本:v5.1.73CPU : Intel(R) Core(TM) i5-2320 CPU @ 3.00GHz内存 :12G硬盘 :SSD 一.MySQL读写测试 测试准备 初始化SQL语句: CREATE DATABASE testMysql; CREATE TABLE `monitorStatus` ( `system_n

java对比IO和NIO的文件读写性能测试

原文:java对比IO和NIO的文件读写性能测试 源代码下载地址:http://www.zuidaima.com/share/1550463508466688.htm 1. NIO采用更接近操作系统执行IO的方式:通道和缓存器:顾名思义,数据源的数据由缓存器通过通道进行传输. 2. 在JDK5之后,原始IO系统底层用NIO进行了优化,这可以通过sun公布的源码中找到,但是,NIO系统性还是比IO强. 3. 在稍微研究了IO源码以及部分sun源码,我觉得IO系统的性能瓶颈主要是由于原始的IO架构因

OpenWrt中对USB文件系统的操作, 以及读写性能测试

参考 http://h-wrt.com/en/doc/flash 1. 查看usb存储在启动日志中的信息 # dmesg [ 5.720000] usbcore: registered new interface driver usbfs [ 5.730000] usbcore: registered new interface driver hub [ 5.740000] usbcore: registered new device driver usb [ 5.740000] ehci_hc

GDI+下Bitmap逐像素快速读写性能测试

写在前面的话: 本文针对GDI+下Bitmap操作(Get/SetPixel)进行测试,而非寻求最快速的位图处理方式.如果你需要速度上的提升,请使用GDI+以外的技术,如并行计算.调用MMX/SSE指令.CUDA等. 这是一个古老的技巧:使用Bitmap类时经常会用到GetPixel和SetPixel,但是这两个方法直接使用都比较慢,所以一般都会使用LockBits/UnlockBits将位图在内存中锁定,以加快操作速度.MSDN上的标准参考是这样的: MSDN示例:锁定内存后拷贝 用指针法会更

Linux下磁盘IO读写性能测试脚本

#!/bin/sh #author:reed #blog:luweikai.blog.51cto.com #说明:使用自带的dd命令 file=dd.file BS_COUNT_8K=(8K 12K) BS_COUNT_64K=(64K 6K) BS_COUNT_1M=(1M 1K) list="8K 64K 1M" wlog=/tmp/ddwrite.log rlog=/tmp/ddread.log #write Write() {         echo "[INFO]

Ceph源码解析:读写流程

一.OSD模块简介 1.1 消息封装:在OSD上发送和接收信息. cluster_messenger -与其它OSDs和monitors沟通 client_messenger -与客户端沟通 1.2 消息调度: Dispatcher类,主要负责消息分类 1.3 工作队列: 1.3.1 OpWQ: 处理ops(从客户端)和sub ops(从其他的OSD).运行在op_tp线程池. 1.3.2 PeeringWQ: 处理peering任务,运行在op_tp线程池. 1.3.3 CommandWQ:处

ceph的使用

Ceph uniquely delivers object, block, and file storage in one unified system. ceph提供了filesystem, block device, object store三种使用方式. 准确来说下面我们只讲它的block device,由于他们的基础都是要有一个可工作的Ceph Storage Cluster,因此这里先补充说明一些命令. 1.ceph相关命令 1)查看监控集群状态: ceph health ceph s

Ceph块设备管理与Openstack配置(上)

Oepnstack之CEPH系列是根据Ceph Cookbook整理的笔记,分为以下几个部分: <Ceph简介> <Ceph集群操作> <Ceph块设备管理与Openstack配置> <深入Ceph> <ceph优化与性能测试> 注意:此文对应ceph版本为10.1.2 #ceph -v ceph version 10.1.2(4a2a6f72640d6b74a3bbd92798bb913ed380dcd4) 前言 目前接触到的Mitaka版本O

理解 OpenStack + Ceph (8): 基本的性能测试方法

本系列文章会深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安装和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和逻辑结构 (4)Ceph 的基础数据结构 (5)Ceph 与 OpenStack 集成的实现 (6)QEMU-KVM 和 Ceph RBD 的 缓存机制总结 (7)Ceph 的基本操作和常见故障排除方法 (8)基本的性能测试和调优方法 继续学以致用,学习下基本的Ceph性能测试工具和方法. 0. 测试环境 同 Ceph 的基本操作和常见故障