iozone性能测试

文件目录  cd /etc/yum.repos.d/iozone_smallfile/iozone3_429/src/current                            #这个文件自己建的 iozone_smallfile
-------------------------------------------------------------------------------------
解压iozone3_429.tar

tar  xvf  iozone3_429.tar      #解压
cd iozone3_429/src/current
1)[[email protected]%ancunkj current]# make

注释:1.service iptables stop    2. gluster volume status   3.  gluster peer status
----------------------------------------------------------------------------------------------

2)[[email protected]%ancunkj current]# make linux-AMD64
这个步骤会生成一个 iozone 的文件
--------------------------------------------------------------------------
3)[[email protected]%ancunkj current]# cp iozone /usr/local/bin           # 拷贝到这个目录下 cp /usr/local/bin
-----------------------------------------------------------------------------------
4)得到有效数据 创建mkdir dht-iozone

[[email protected]%ancunkj current]# iozone -w -c -e -i 0 -+n -r 64k -s 1g -t 8 -F /mnt/dht-iozone/f{0,1,2,3,4,5,6,7,}.ioz

Each process writes a 1048576 kByte file in 64 kByte records

Children see throughput for 8 initial writers = 106134.47 kB/sec
Parent sees throughput for 8 initial writers = 100011.67 kB/sec
Min throughput per process = 12636.07 kB/sec
Max throughput per process = 13979.25 kB/sec
Avg throughput per process = 13266.81 kB/sec
Min xfer = 947584.00 kB

iozone test complete.
[[email protected]%ancunkj current]#
-----------------------------------------------------------------------------------------------
执行命令 创建 mkdir dht-iozone-client
[[email protected]%ancunkj current]# iozone -w -c -e -i 0 -+n -r 64k -s 1g -t 8 -F /mnt/dht-iozone-client/f{0,1,2,3,4,5,6,7,}.ioz

Each process writes a 1048576 kByte file in 64 kByte records

Children see throughput for 8 initial writers = 105563.73 kB/sec
Parent sees throughput for 8 initial writers = 98941.44 kB/sec
Min throughput per process = 12299.78 kB/sec
Max throughput per process = 13963.33 kB/sec
Avg throughput per process = 13195.47 kB/sec
Min xfer = 923584.00 kB

iozone test complete.
[[email protected]%ancunkj current]#
---------------------------------------------------------------------------------------------------------------------------
以上两个步骤,测试出来的性能,就相当于 一个client 并发8个thread      
---------------------------------------------------------------------------------------------------------------------------

i——测试类型,0 =写,1 =阅读,2 =随机读/写 。
t——数量的线程并发多少子流程将发行I / O请求 。

[[email protected]%ancunkj current]# iozone -w -c -e -i 0 -+n -r 64k -s 1g -t 8 -F /mnt/dht-iozone-client/f0.ioz
/mnt/dht-iozone-client/f1.ioz /mnt/dht-iozone-client/f2.ioz /mnt/dht-iozone-client/f3.ioz
/mnt/dht-iozone-client/f4.ioz /mnt/dht-iozone-client/f5.ioz /mnt/dht-iozone-client/f6.ioz /mnt/dht-iozone-client/f7.ioz

Each process writes a 1048576 kByte file in 64 kByte records

Children see throughput for 8 initial writers = 97479.45 kB/sec
Parent sees throughput for 8 initial writers = 95655.19 kB/sec
Min throughput per process = 12028.28 kB/sec
Max throughput per process = 12423.91 kB/sec
Avg throughput per process = 12184.93 kB/sec
Min xfer = 1016640.00 kB

iozone test complete.
-----------------------------------------------------------------------------------------------------------------------------------

=====================================================================================

-----------------------------------------------------------------------------

iozone 测试 ec8-2
-----------------------------------------------------------------------------

iozone -w -c -e -i 0 -+n -r 64k -s 1g -t 8 -F /mnt/glusterfs/f{0,1,2,3,4,5,6,7,8}.ioz
iozone -w -c -e -i 0 -+n -r 128k -s 1g -t 9 -F /mnt/glusterfs/f{0,1,2,3,4,5,6,7,8,9}.ioz

1线程
iozone -w -c -e -i 0 -+n -r 256k -s 1g -t 1 -F /mnt/ec82-hf1-client/f{mn1}.ioz # file size =256k
2线程

4线程

8线程
16线程

iozone -w -c -e -i 0 -+n -r 128k -s 1g -t 1 -F /mnt/glusterfs/f{mn1}.ioz 一个线程会出现什么问题?
iozone -w -c -e -i 1 -+n -r 128k -s 1g -t 1 -F /mnt/glusterfs/f{mn1}.ioz
iozone -w -c -e -i 2 -+n -r 128k -s 1g -t 1 -F /mnt/glusterfs/f{mn1}.ioz

iozone -b client1 -w -c -e -i 0 -+n -r 128k -s 1g -t 9 -F /mnt/dht-client-new/f{0,1,2,3,4,5,6,7,8,9}.ioz
-----------------------------------------------------------------------------------------------
[[email protected]%ancunkj glusterfs-3.6.1]# service iptables stop #这个比较注意
-----------------------------------------------------------------------------------------------
for i in seq 0 9; do ssh vn$i "service iptables stop"; done #停止一下

cn0-6采用ec4-3模式 操作?

一、集群
[[email protected]%ancunkj /]# gluster peer probe cn0
gluster peer probe cn1
gluster peer probe cn2
gluster peer probe cn3
gluster peer probe cn4
gluster peer probe cn5
gluster peer probe cn6

[[email protected]%ancunkj /]# gluster peer status #看一下

二、 volume
[[email protected]%ancunkj /]# gluster volume create vol-server strip 6 cn0:/mnt/vol-server1 cn1:/mnt/vol-server1 cn2:/mnt/vol-server1 cn3:/mnt/vol-server1 cn4:/mnt/vol-server1
cn5:/mnt/vol-server1 cn6:/mnt/vol-server1 force

三) mount
[[email protected]%ancunkj mnt]# mount -t glusterfs mn0/mnt/strip-client/


1)ec搭建
[[email protected]%ancunkj mnt]# gluster volume create ec4-3 disperse 5 redundancy 3
cn0:/mnt/ec4-3-server cn1:/mnt/ec4-3-server cn2:/mnt/ec4-3-server cn3:/mnt/ec4-3-server cn4:/mnt/ec4-3-server cn5:/mnt/ec4-3-server cn6:/mnt/ec4-3-server
cn7:/mnt/ec4-3-server cn8:/mnt/ec4-3-server cn9:/mnt/ec4-3-server force

2)启动 ec4-3模式
[[email protected]%ancunkj mnt]# gluster volume start ec4-3

3) mn1上 创建 ec-client文件
[[email protected]%ancunkj mnt]# mkdir ec-client

4)挂载
[[email protected]%ancunkj mnt]# mount -t glusterfs cn0:/mnt/ec4-3 mn0:/mnt/ec-client

iozone -w -c -e -i 1 -+n -r 128k -s 1g -t 1 -F /mnt/glusterfs/f{mn1}.ioz
iozone -w -c -e -i 1 -+n -r 128k -s 1g -t 2 -F /mnt/glusterfs/f{mn1}.ioz
iozone -w -c -e -i 1 -+n -r 128k -s 1g -t 4 -F /mnt/glusterfs/f{mn1}.ioz
iozone -w -c -e -i 1 -+n -r 128k -s 1g -t 8 -F /mnt/glusterfs/f{mn1}.ioz
iozone -w -c -e -i 1 -+n -r 128k -s 1g -t 16 -F /mnt/glusterfs/f{mn1}.ioz

========================================================================================

执行清理
echo 1 > /proc/sys/vm/drop_caches

[[email protected]%ancunkj mnt]# mkdir dht-iozone-client

./run.sh dht-new1 "vn2 vn3" /mnt/dht-server-new1 "vn2 vn3" /mnt/dht-client-new1 128K

./run.sh dht-new1 "cn2" /mnt/dht-server-1 "cn0 cn1" /mnt/dht-client-1 128K

./smallfile.sh dht-new1 "cn2" /mnt/dht-server-1 "cn0 cn1" /mnt/dht-client-1 2

文件的位置要清楚
[[email protected]%ancunkj ] cd /mnt/lk/ iozone-scripts-lk / stop-and-delete-vol

[[email protected]%ancunkj /]# cd /usr/local/

[[email protected]%ancunkj /]cd /etc/yum.repos.d/iozone_smallfile

usr/local/bin/smallfile

./smallfile.sh: line 87: ./stop-and-delete-vol: No such file or directory
scp -r ./stop-and-delete-vol cn2:/etc/yum.repos.d/iozone_smallfile/smallfile-master

[[email protected]%ancunkj bin]# yum install expect

查看一下nfs的状态
[[email protected]%ancunkj mnt]# service nfs status
[[email protected]%ancunkj mnt]# service nfs restart

/vol2 192.168.1.0/24(rw,insecure,sync,no_root_squash)
/etc/exports的设置
然后执行exportfs -ar
客户端应该就可以mount了
已测试通过
必须要用0/24这种形式

--------------------------------------------------------------------------------------------------------------------------

时间: 2024-10-14 11:59:10

iozone性能测试的相关文章

android 性能测试iozone篇

一:简介 iozone是一个文件系统的benchmark工具, 用于测试不同的操作系统中文件系统的读写性能, 可以测试以下13种模式 0=write/rewrite 1=read/re-read 2=random-read/write 3=Read-backwards 4=Re-write-record 5=stride-read 6=fwrite/re-fwrite 7=fread/Re-fread 8=random mix 9=pwrite/Re-pwrite 10=pread/Re-pre

利用IOzone进行存储性能测试

命令:1.iozone -s 10G -r 4k -i 0(0代表顺序写) -w(代表文件不删除) -+n(不测重读重写) -Rb(以某种格式生成测试文件) /tmp/iozone_4k_sq_w.xls(这里是文件的名字)    以4k大小测试顺序写10G文件的性能; 2.清除缓存:echo 3 >/proc/sys/vm/drop_caches(注意:3与>之间必须有空格) 3.iozone -s 10G -r 4k -i 1(1代表顺序读) -w -+n -Rb /tmp/iozone_

iozone nas存储性能测试

nas存储性能测试报告 1 目的 用于测试4个服务器并发工作是nas带宽是否满足性能要求 2 环境说明 测试工具:iozone 测试客户端配置:虚拟机vcpu:4核(2.5Ghz)内存:4G虚拟网卡:1000M Nas存储与测试客户端(4个转码服务器)中间的交换机带宽是1G. 所以被测试nas存储设备理想带宽值:125MB/s. 测试工具参数说明: -a  Auto mode -b Filename  Create Excel worksheet file -c  Include close i

以moosefs为例介绍iozone的使用方法

一.编译安装 首先到官网下载iozone的稳定版源码 http://www.iozone.org/ 然后解压编译 tar -vxf iozone3_458.tar cd iozone3_458/src/current make linux-AMD64 最后生成了iozone的可执行文件; 二.使用说明 ./iozone -h查看运行参数 [[email protected] iozone3_458]# ./iozone -h iozone: help mode Usage: iozone [-s

基于 iwarp下的lustre性能测试

近期在做集群网络的升级方案,涉及到网络设备有交换机.线缆.网卡.过程中测试了不少网络厂商的设备,这里主要记录下在测试Chelsio网卡时的一些问题. 测试内容 网卡带宽 网卡延迟(TCP/iwarp) lustre on iwarp 网卡带宽和延迟这里不做过多介绍,这个测试起来比较简单,直接跑下iperf和ib_write测试工具即可:这里主要记录下如何在lustre上启用iwarp. 测试环境 直接上图: 存储硬件设备使用DDN/SFA7700x作为lustre的后端盘阵,共60块7.2K N

Linux性能测试实践

前言 Linux性能测试.监控.优化是一个持续的过程,上图为LinuxCon上Brendan D. Gregg分享的 Linux benchmarking tools 示意图,涵盖面十分广泛.我们可以通过成熟的监控方案如BMC Patrol,Zabbix来捕获大部分信息,在实际工作中我们会经常关注I/O性能,一般可以使用dd/ORION/IOzone做简单的测试,如果需 要获取更加全面详细的报告可以使用nmon,本文将主要介绍Super PI /dd/nmon三种简单而有效的监测方法. CPU

kvm性能测试

测试的主要目的是观察kvm上安装的虚拟机对物力资源的性能损耗.这次主要是对kvm虚拟化的cpu,内存和io进行性能对比测试,具体方法是:在非虚拟化的原生系统中执行某个基准测试程序,然后将该测试程序放到与原生系统配置相近的虚拟客户机中执行,接着对比在虚拟化和非虚拟化环境中该测试程序执行的性能.为了测试的准确性,尽量保证测试环境和原生系统环境的一致性.在/etc/grub/grub.cfg文件中,在启动内核的那一行添加maxcpus=2 nr_cpus=2 mem=2G这几个参数即可限制linux内

Docker五种存储驱动原理及应用场景和性能测试对比

Docker最开始采用AUFS作为文件系统,也得益于AUFS分层的概念,实现了多个Container可以共享同一个image.但由于AUFS未并入Linux内核,且只支持Ubuntu,考虑到兼容性问题,在Docker 0.7版本中引入了存储驱动, 目前,Docker支持AUFS.Btrfs.Device mapper.OverlayFS.ZFS五种存储驱动.就如Docker官网上说的,没有单一的驱动适合所有的应用场景,要根据不同的场景选择合适的存储驱动,才能有效的提高Docker的性能.如何选择

服务器性能测试,你选哪种工具

众所周知,服务器是整个网络系统和计算平台的核心,许多重要的数据都保存在服务器上,很多网络服务都在服务器上运行,因此服务器性能的好坏决定了整个应用系统的性能. 现在市面上不同品牌.不同种类的服务器有很多种,用户在选购时,怎样从纷繁的型号中选择出所需要的,适合于自己应用的服务器产品,仅仅从配置上判别是不够的,最好能够通过实际测试来筛选.而各种的评测软件有很多种,你应该选择哪个软件测试?下面就介绍一些较典型的测试工具:  (一)服务器整机系统性能测试工具 一台服务器系统的性能可以按照处理器.内存.存储