Xtradb+Haproxy高可用数据库集群(三)sysbench性能测试篇

xtradb sysbench性能测试

安装sysbench,最新版本是0.5

yum install sysbench -y

初始化测试表

sysbench --test=/usr/share/doc/sysbench/tests/db/oltp.lua --oltp-table-size=1000000 --mysql-table-engine=innodb --mysql-user=sysbench  --mysql-password=sysbench --mysql-port=3306 --mysql-host=10.0.37.123 --mysql-db=test prepare

参数说明:

--oltp-table-size:    指定表的大小,即表的行数

--mysql-table-engine:  指定存储引擎,如myisam,innodb,heap,ndbcluster,bdb,maria,falcon,pbxt

--mysql-db:       指定在哪个数据库创建测试表,默认为sbtest库,需要提前创建好

--test:           指定Lua脚本,参数选项大部分同老版本的--test=oltp help

--db-driver:      指定驱动,默认为Mysql

--myisam-max-rows:     指定Myisam表的MAX_ROWS选项

--oltp-secondary:     测试表将使用二级索引KEY xid(ID) 替代 PRIMARY KEY (ID),innodb引擎内部为每个表创建唯一6字节的主键索引

--oltp-auto-inc:    设置id列为auto-incremental,值为on或off,默认为on

select测试

sysbench --test=/usr/share/doc/sysbench/tests/db/select.lua   --oltp-table-size=1000000 --mysql-table-engine=innodb --mysql-user=sbtest  --mysql-password=sbpass --mysql-port=3306 --mysql-host=192.168.70.72 --mysql-db=sbtest  --max-requests=0 --max-time=120 --oltp-tables-count=1 --report-interval=10 --num-threads=8  run

参数说明:

--max-time        来指定测试时长

--oltp-tables-count    指定测试表数量

--max-requests       指定最大请求数,默认10000,0是不限制

--num-threads        指定线程数

prepare         是一个准备过程,比如测oltp需要load数据到表里

run              是真正的测试过程

cleanup         是清除过程

update测试

sysbench --test=/usr/share/doc/sysbench/tests/db/update_index.lua  --oltp-table-size=1000000 --mysql-table-engine=innodb --mysql-user=sbtest  --mysql-password=sbpass --mysql-port=3306 --mysql-host=192.168.70.72 --mysql-db=sbtest  --max-requests=0 --max-time=120 --oltp-tables-count=1 --report-interval=10 --num_threads=8 run

insert测试

sysbench --test=/usr/share/doc/sysbench/tests/db/insert.lua  --oltp-table-size=1000000 --mysql-table-engine=innodb --mysql-user=sbtest  --mysql-password=sbpass --mysql-port=3306 --mysql-host=192.168.70.72 --mysql-db=sbtest  --max-requests=0 --max-time=120 --oltp-tables-count=1 --report-interval=10 --num_threads=8 run

测试结果

8线程 读120s 插入120s 更新120s
一台 578859 76204 70780
二台 531659 90487 91068
三台 459249 88791 81759
一台不过
haproxy
718150 76268 69842

在写上,过haproxy时,一台与多台差距不大,多台对写性能影响不大。

在读上,按理来说,多台应该性能成倍上升,但从测试结果上看,没什么变化,不知道为什么,有人知道原因还请告知。

时间: 2024-10-05 05:52:36

Xtradb+Haproxy高可用数据库集群(三)sysbench性能测试篇的相关文章

Xtradb+Haproxy高可用数据库集群(一)xtradb部署篇

部署xtradb cluster时,建议使用3台及以上服务器.原因有二: 1.默认情况下,如果一个同伴死去或者两个节点之间的通信不稳定,两个节点都将不接受查询.当然这个可以通过添加忽略仲裁来解决: set globalwsrep_provider_options="pc.ignore_quorum=true"; 2.当宕掉的那台启动时,会进行同步,负责提供数据的节点角色变为Donor, Donor会有一定的时间无法写入.断开情况如下: Mysqldump 适合小库 Rsync    

Xtradb+Haproxy高可用数据库集群(四)集群zabbix监控篇

xtradb cluster集群zabbix监控 监控指标 官网参考地址: https://www.percona.com/doc/percona-xtradb-cluster/5.6/manual/monitoring.html 1.报警参数 每个集群节点状态: wsrep_cluster_status != Primary wsrep_connected != ON wsrep_ready != ON 复制冲突过高 wsrep_local_cert_failures wsrep_local_

Xtradb+Haproxy高可用数据库集群(二)haproxy负载均衡篇

Xtradb集群部署完成后,3台机器都能同时读写,此时需要在前端搭建haproxy来进行负载均衡. 官网haproxy配置参考地址: https://www.percona.com/doc/percona-xtradb-cluster/5.6/howtos/virt_sandbox.html Haproxy服务器配置 拿一台机器用作haproxy,此处是192.168.6.219. 安装haproxy yum install haproxy -y 配置文件: [[email protected]

CentOS7+MySQL/MariaDB+Galera+HAProxy+Keepalived构建高可用数据库集群

方案优势: Galera能够实现MySQL/MariaDB数据库的主主复制和多主复制等模式,这些复制模式都是同步进行的,同步时间非常短 每一个节点都可以同时写入和读取,当某一节点发生故障时,可自动从集群中自动剔除 HAProxy能提供负载均衡和故障判断等功能解决服务器系统存在的单点故障 Keepalived能提供客户端连接数据库时使用的虚拟IP地址(VIP) 关于HAProxy的负载均衡算法 轮询方式(roundrobin):不适合用于backend为web服务器的情况,因为session.co

MySQL互为主从+Keepalived高可用数据库集群

1.剧情回顾 在之前的博客上,我做了一个MySQL主从配置的实验,链接在这:http://blog.51cto.com/superpcm/2094958 .在这里我决定把这两个数据库做成互为主从,然后在这两个互为主从的数据库上配置keepalived,实现高可用,怎么配置可以参考我前文高可用的实验博客,http://blog.51cto.com/superpcm/2095395 . 最后实现的的拓扑图如下: 2.配置MySQL 互为主从复制 之前可能没有说明,实验默认都是开放所有端口给同一网段的

搭建高可用mongodb集群(三)—— 深入副本集内部机制

http://www.lanceyan.com/tech/mongodb_repset2.html 在上一篇文章<搭建高可用mongodb集群(二)—— 副本集> 介绍了副本集的配置,这篇文章深入研究一下副本集的内部机制.还是带着副本集的问题来看吧! 副本集故障转移,主节点是如何选举的?能否手动干涉下架某一台主节点. 官方说副本集数量最好是奇数,为什么? mongodb副本集是如何同步的?如果同步不及时会出现什么情况?会不会出现不一致性? mongodb的故障转移会不会无故自动发生?什么条件会

搭建高可用mongodb集群(四)—— 分片(经典)

转自:http://www.lanceyan.com/tech/arch/mongodb_shard1.html 按照上一节中<搭建高可用mongodb集群(三)-- 深入副本集>搭建后还有两个问题没有解决: 从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大? 数据压力大到机器支撑不了的时候能否做到自动扩展? 在系统早期,数据量还小的时候不会引起太大的问题,但是随着数据量持续增多,后续迟早会出现一台机器硬件瓶颈问题的.而mongodb主打的就是海量数据架构,他不能解决海量数据怎么

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置 LB集群是locd balance集群的简称.翻译成中文是:负载均衡集群的意思:集群是一组相互独立的.通过高速网络互联的计算机相互之间构成一个组合,并以单一的系统的模式加以管理.LVS是Linux Virtual Server的简写,翻译中文是Linux虚拟服务器,是一个虚拟的服务器集群系统. 负载均衡集群:是为了企业提供更为实用,性价比更高的系统机构解决方案.负载均衡集群把用户的请求尽可能的平均分发到集群的各

搭建高可用mongodb集群(二)—— 副本集

http://www.lanceyan.com/tech/mongodb/mongodb_repset1.html 在上一篇文章<搭建高可用MongoDB集群(一)——配置MongoDB> 提到了几个问题还没有解决. 主节点挂了能否自动切换连接?目前需要手工切换. 主节点的读写压力过大如何解决? 从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大? 数据压力大到机器支撑不了的时候能否做到自动扩展? 这篇文章看完这些问题就可以搞定了.NoSQL的产生就是为了解决大数据量.高扩展性.高