MySQL互为主从+Keepalived高可用数据库集群

1.剧情回顾

在之前的博客上,我做了一个MySQL主从配置的实验,链接在这:http://blog.51cto.com/superpcm/2094958 。在这里我决定把这两个数据库做成互为主从,然后在这两个互为主从的数据库上配置keepalived,实现高可用,怎么配置可以参考我前文高可用的实验博客,http://blog.51cto.com/superpcm/2095395 。

最后实现的的拓扑图如下:

2.配置MySQL 互为主从复制

之前可能没有说明,实验默认都是开放所有端口给同一网段的,iptables里面设置。

iptables -I INPUT -s 192.168.31.0/24 -j ACCEPT
/etc/init.d/iptables save

(1)设置MySQL02(原来的从数据库)的配置文件,vim /etc/my.ini,增加一行log-bin,然后重启数据库:/etc/init.d/mysqld restart

(2)查看MySQL02上的master状态,记录下file和position的数据。

(3)在MySQL01数据库上添加change master。

CHANGE MASTER TO
MASTER_HOST='192.168.31.53',
MASTER_PORT=3306,
MASTER_USER='rep',
MASTER_PASSWORD='pcm123456',
MASTER_LOG_FILE='mysql-bin.000004',
MASTER_LOG_POS=712372;

(4)启动slave,查看slave的状态。在这里就成功了,如果要测试的话,可以像之前的博文那样测试。

3.用Keepalived实现数据库的高可用。

(1)安装keepalived软件,设置为开机启动

yum install keepalived
echo "/etc/init.d/keepalived start" >>/etc/rc.local

(2)配置keepalived的配置文件,主要的配置如下。

(3)启动keepalived软件,检查是否在MySQL01上生成VIP:192.168.31.54

(4)上面出现只在MySQL01上VIP则是成功了,可以在01上关闭keepalived然后检查02会不会出现VIP。然后在其他的设备上查看能不能通过vip登陆mysql。这里由于我前面在web01和web02上搭建了wordpress,我直接修改wordpress的配置文件,把数据库指向为192.168.31.54。

vim /usr/local/nginx/html/blog/wp-config.php
define('DB_HOST', '192.168.31.54');

(5)登陆wordpress,结果发现正常,更多测试结果这里不做提供。

原文地址:http://blog.51cto.com/superpcm/2095731

时间: 2024-10-07 07:58:22

MySQL互为主从+Keepalived高可用数据库集群的相关文章

搭建LVS+Keepalived高可用负载集群

搭建LVS+Keepalived高可用负载集群 最近,本屌接到公司的任务,公司新上20台服务器,需要搭建一整套架构来运行公司的业务,其中有应用服务器,认证服务器,数据库服务器等.服务器基础架构中的应用服务器集群要有高可用性,且需要负载均衡.当我接到这个任务的时候,脑子里第一个想法就是LVS+Keepalived. 由于公司资金有限,直接上硬件的负载均衡设备是不可能的了,所以只好使用软件来实现,LVS在负载均衡集群中无疑是一种很好的方案,使用LVS可以同时分发10台以下的设备,用在我们这个项目中是

keepalived高可用lvs集群,主/备和主/主模型

利用keepalived高可用lvs集群,主/备和主/主: vrrp_script高可用双主nginx: keepalived主备:lvs-dr工作模型 网络搭建: 在前端2台调度器: DR1:172.18.11.111 DR2:172.18.11.112 VIP:172.18.11.7 后端2台web服务器,运行nginx: RS1:172.18.11.11 RS2:172.18.11.12 搭建web服务器: 提供简单的测试页面,以便容易观测到哪台RS被调度响应: 在RS1上: ]# yum

CentOS7+MySQL/MariaDB+Galera+HAProxy+Keepalived构建高可用数据库集群

方案优势: Galera能够实现MySQL/MariaDB数据库的主主复制和多主复制等模式,这些复制模式都是同步进行的,同步时间非常短 每一个节点都可以同时写入和读取,当某一节点发生故障时,可自动从集群中自动剔除 HAProxy能提供负载均衡和故障判断等功能解决服务器系统存在的单点故障 Keepalived能提供客户端连接数据库时使用的虚拟IP地址(VIP) 关于HAProxy的负载均衡算法 轮询方式(roundrobin):不适合用于backend为web服务器的情况,因为session.co

Xtradb+Haproxy高可用数据库集群(四)集群zabbix监控篇

xtradb cluster集群zabbix监控 监控指标 官网参考地址: https://www.percona.com/doc/percona-xtradb-cluster/5.6/manual/monitoring.html 1.报警参数 每个集群节点状态: wsrep_cluster_status != Primary wsrep_connected != ON wsrep_ready != ON 复制冲突过高 wsrep_local_cert_failures wsrep_local_

Xtradb+Haproxy高可用数据库集群(一)xtradb部署篇

部署xtradb cluster时,建议使用3台及以上服务器.原因有二: 1.默认情况下,如果一个同伴死去或者两个节点之间的通信不稳定,两个节点都将不接受查询.当然这个可以通过添加忽略仲裁来解决: set globalwsrep_provider_options="pc.ignore_quorum=true"; 2.当宕掉的那台启动时,会进行同步,负责提供数据的节点角色变为Donor, Donor会有一定的时间无法写入.断开情况如下: Mysqldump 适合小库 Rsync    

Xtradb+Haproxy高可用数据库集群(二)haproxy负载均衡篇

Xtradb集群部署完成后,3台机器都能同时读写,此时需要在前端搭建haproxy来进行负载均衡. 官网haproxy配置参考地址: https://www.percona.com/doc/percona-xtradb-cluster/5.6/howtos/virt_sandbox.html Haproxy服务器配置 拿一台机器用作haproxy,此处是192.168.6.219. 安装haproxy yum install haproxy -y 配置文件: [[email protected]

Xtradb+Haproxy高可用数据库集群(三)sysbench性能测试篇

xtradb sysbench性能测试 安装sysbench,最新版本是0.5 yum install sysbench -y 初始化测试表 sysbench --test=/usr/share/doc/sysbench/tests/db/oltp.lua --oltp-table-size=1000000 --mysql-table-engine=innodb --mysql-user=sysbench  --mysql-password=sysbench --mysql-port=3306 

debian下完成 haproxy +keepalived 高可用web集群架构

参考文章:http://ox0spy.github.io/debian/2014/07/01/setup-haproxy-and-keepalived-on-debian-wheezy/ 亲测,没问题,可用

Keepalived+LVS实现web高可用负载集群

目标:基于LVS的DR模型实现keepalived高可用负载集群 拓扑图: 一.准备好DR模型的Real server1和Realserver2两个节点 1.此处我就用脚本来快速的部署这两个节点,脚本内容如下: #!/bin/bash vip=192.168.1.100 interface="lo:0" case $1 in               start)                   echo 1 > /proc/sys/net/ipv4/conf/all/ar