ceph 测试

FIO用法:

随机读:

fio -filename=/dev/sdb1 -direct=1 -iodepth 1 -thread -rw=randread -ioengine=psync -bs=16k -size=200G -numjobs=10 -runtime=1000 -group_reporting -name=mytest

说明:

filename=/dev/sdb1      测试文件名称,通常选择需要测试的盘的data目录。
direct=1                测试过程绕过机器自带的buffer。使测试结果更真实。
rw=randwrite            测试随机写的I/O
rw=randrw               测试随机写和读的I/O
bs=16k                  单次io的块文件大小为16k
bsrange=512-2048         同上,提定数据块的大小范围
size=5g    本次的测试文件大小为5g,以每次4k的io进行测试。
numjobs=30              本次的测试线程为30.
runtime=1000            测试时间为1000秒,如果不写则一直将5g文件分4k每次写完为止。
ioengine=psync           io引擎使用pync方式
rwmixwrite=30           在混合读写的模式下,写占30%
group_reporting          关于显示结果的,汇总每个进程的信息。

此外
lockmem=1g              只使用1g内存进行测试。
zero_buffers            用0初始化系统buffer。
nrfiles=8               每个进程生成文件的数量。

测试:

ceph-client:~$ cat write.io
[write-4M]
description="write test with block size of 4M"
ioengine=rbd
#clientname=admin
pool=rbd
rbdname=foo3
iodepth=32
runtime=120
rw=randwrite
bs=4k
direct=1

fio write.io

4k随机写

write: io=102400KB, bw=5459.9KB/s, iops=1364, runt= 18755msec

在OSD节点测试结果接近

10个线程的话:

numjobs=10

结果:

IOPS=202

如果 iodepth = 1 的话,结果是:

write: io=78688KB, bw=671442B/s, iops=163, runt=120005msec

支持的engine:

~$ fio --enghelp
Available IO engines:
cpuio
mmap
sync
psync
vsync
pvsync
null
net
netsplice
libaio
rdma
posixaio
falloc
e4defrag
splice
rbd
mtd
sg
binject

测试本地disk:

http://www.cnblogs.com/sammyliu/p/5557666.html

时间: 2024-08-30 11:09:46

ceph 测试的相关文章

openstack项目中遇到的各种问题总结 其二(云主机迁移、ceph及扩展分区)

二.日常工作汇集 2.1.迁移总汇 2.1.1.在虚机的环境下的云主机迁移 在vmware workstation创建多台linux虚机,在这几台虚机中搭建openstack环境,然后做云主机的迁移实验. 例如下面的实验: 操作主机 主机IP  主机名    角色 192.168.0.11    YUN-11            控制节点 192.168.0.12    YUN-12            扩展节点 下面以控制节点为例,但是每台涉及迁移的主机都要做操作 1)各节点之间nova账

Ubuntu 16.04下使用docker部署ceph集群

ceph集群docker部署 通过docker可以快速部署小规模Ceph集群的流程,可用于开发测试. 以下的安装流程是通过linux shell来执行的:假设你只有一台机器,装了linux(如Ubuntu)系统和docker环境,那么可以参考以下步骤安装Ceph: # 要用root用户创建, 或有sudo权限 # 注: 建议使用这个docker镜像源:https://registry.docker-cn.com # 1. 修改docker镜像源 cat > /etc/docker/daemon.

硬盘分区对齐

这两天在对ceph测试压力的时候,发现硬盘对齐分区比不对齐分区性能更优. "4K对齐"相关联的是一个叫做"高级格式化"的分区技术. "高级格式化"是国际硬盘设备与材料协会为新型数据结构格式所采用的名称.这是主要鉴于目前的硬盘容量不断扩展,使得之前定义的每个扇区512字节不再试那么合理,于是将每个扇区512字节改为每个扇区4096个字节,也就是现在常说的"4K扇区". 传统硬盘的每个扇区固定是512个字节,新标准的"4

openstack项目中遇到的各种问题总结

目录: 一. 从开始到现在遇到的各种问题      1.1.单网卡下搭建openstack出错      1.2.云平台上虚机搭建MDS系统遇到的问题 2         1.2.1.内部网路和外部网络的联通问题 3         1.2.2.windows虚机下对于3D的支持问题 5         1.2.3.对于windows的兼容问题 5     1.3.扩展节点的部分问题 5         1.3.1..扩展节点出错 5         1.3.2.删除扩展节点信息 7     1

ceph之rbd读写API 测试

rados.rbd读写API测试: 1 //compile: 2 //gcc ceph_test_v2.c -lrbd -lrados -g -Wall 3 4 #include <stdio.h> 5 #include <stdlib.h> 6 #include <string.h> 7 #include <rados/librados.h> 8 #include <rbd/librbd.h> 9 10 static int print_pro

一个关于ceph的可用空间测试

一.环境 节点概述 mon : ceph-node01 ceph-node02 ceph-node03 osd :ceph-node01 ceph-node02 ceph-node03 mds : ceph-node01 ceph-node02 操作系统:Ubuntu 14.10 每个osd主机有一个OSD,每个OSD可用容量15GB. 二.测试过程 1.ceph -s查看概述 [email protected]:~# ceph -s     cluster 9ae8eb40-4f71-49ec

Ceph:网络性能基线测试

#一.带宽基线测试:iperf是一个网络性能测试工具.Iperf可以测试TCP和UDP带宽质量.iperf可以测量最大TCP带宽,具有多种参数和UDP特性. Iperf可以报告带宽,延迟抖动和数据包丢失. #二.测试方法:启动网络性能基准测试,在第一个Ceph节点上执行iperf服务端选项,在第二个Ceph节点上执行客户端选项. #三.操作方法:在服务端节点和客户端节点分别找一个没被占用的相同端口,比如6901 1.服务端节点: # yum -y install iperf # iperf -s

利用s3-test进行ceph的接口兼容性测试

原文引用https://www.dazhuanlan.com/2019/08/26/5d63059f52453/ 前言 ceph的rgw能够提供一个兼容性的s3的接口,既然是兼容性,当然不可能是所有接口都会兼容,那么我们需要有一个工具来进行接口的验证以及测试,这个在其他测试工具里面有类似的posix接口验证工具,这类的工具就是跑测试用例,来输出通过或者不通过的列表 用此类的工具有个好的地方就是,能够对接口进行验证,来避免版本的更新带来的接口破坏 安装 直接对官方的分支进行clone下来,总文档数

使用COSBench工具对ceph s3接口进行压力测试

一.COSBench安装 COSBench是Intel团队基于java开发,对云存储的测试工具,全称是Cloud object Storage Bench 吐槽下,貌似这套工具是intel上海团队开发的,竟然没有中文的相关资料. 同所有的性能测试工具一样,COSBench也分控制台和发起请求的driver,且driver可以分布式部署.可以支持swift.s3.Openstack等接口 1. 下载COSBench工具 下载地址为:https://github.com/intel-cloud/co