Docker 创建 PXC 高可用集群并配置 Harpoxy 负载均衡

创建 PXC 集群环境

拉取 percona-xtradb-cluster 镜像

官方镜像地址:https://hub.docker.com/r/percona/percona-xtradb-cluster

docker pull percona/percona-xtradb-cluster

percona/percona-xtradb-cluster 太长,我们换个名字叫做pxc,操作如下:

docker tag percona/percona-xtradb-cluster pxc

并将开始拉去的镜像删除,操作如下:

docker rmi percona/percona-xtradb-cluster

创建docker网络

出于安全考虑,将PXC集群放置于docker内部网络中。只需将宿主的端口与之映射并开放出来即可。

docker network create --subnet=172.18.0.0/24 net1

其中,--subnet=172.18.0.0/24自定义网段172.18.0.0,24是指24位子网掩码 net1 网段名称。

执行成功后,我们可以通过sudo docker inspect net1查看内部网络信息。

创建docker卷

docker容器的运行规则:通过目录映射的方法,将业务数据写入到宿主机中。好处是如果容器故障,只需将容器删除,重新启用一个容器即可,这样就不会丢失原来的数据。 由于PXC较为特殊,无法直接使用映射目录的方法做映射(使用后会闪退),故使用docker卷。 在命令行使用如下命令:

docker volume create --name v1
docker volume create --name v2
docker volume create --name v3

计划创建3个数据库节点,所以这里对应创建3个数据卷。

创建第一个容器节点:

docker run -d -p 3306:3306 -v v1:/var/lib/mysql     -e MYSQL_ROOT_PASSWORD=123456     -e CLUSTER_NAME=PXC     -e XTRABACKUP_PASSWORD=123456     --privileged     --name=node1     --net=net1     --ip 172.18.0.2     pxc

-d 默认在后台运行, -p 3306(宿主):3306(容器) 端口映射,将容器3306端口映射到宿主3306端口 -v 目录映射,将第四步创建的v1映射到容器/var/lib/mysql -e MYSQL_ROOT_PASSROWD 创建的用户实例的密码,默认实例root -e CLUSTER_NAME 集群名称, -e XTRABACKUP_PASSWORD 数据库之间同步使用的密码 --privileged 权限.给予最高权限 --name 给容器容命名 --net 使用内部网段 --ip 内部网段分到的地址

测试连接:

需要注意的是容器启动的速度虽然很快,但是pxc初始化是需要一点时间的(大概两分钟左右),必须等第一个容器初始化完成后再启动第二个pxc容器,不然会报错。

测试连接成功后就可以启动其他pxc容器了

在启动其他容器的时候需要更改映射的宿主机端口、容器的名称,还有指定 IP 地址。

创建第二个容器节点:

注意:在启动其他容器的时候需要更改映射的宿主机端口、容器的名称,还有指定 IP 地址。

-e CLUSTER_JOIN=node1 用于连接第一个数据库节点

docker run -d -p 3307:3306 -v v2:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 -e CLUSTER_NAME=PXC -e XTRABACKUP_PASSWORD=123456 -e CLUSTER_JOIN=node1 --privileged --name=node2 --net=net1 --ip 172.18.0.3 pxc

创建第三个容器节点:

docker run -d -p 3308:3306 -v v3:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 -e CLUSTER_NAME=PXC -e XTRABACKUP_PASSWORD=123456 -e CLUSTER_JOIN=node1 --privileged --name=node3 --net=net1 --ip 172.18.0.4 pxc

测试:

用数据库连接工具连接三个数据库,在node创建数据库test

CREATE database test;

如果其他数据库都同步过来那就没有问题了。

Harpoxy 负载均衡

创建 haproxy 配置文件,并放到指定的宿主机目录。

global
        #工作目录
        chroot /usr/local/etc/haproxy
        #日志文件,使用rsyslog服务中local5日志设备(/var/log/local5),等级info
        log 127.0.0.1 local5 info
        #守护进程运行
        daemon

defaults
        log     global
        mode    http
        #日志格式
        option  httplog
        #日志中不记录负载均衡的心跳检测记录
        option  dontlognull
        #连接超时(毫秒)
        timeout connect 5000
        #客户端超时(毫秒)
        timeout client  50000
        #服务器超时(毫秒)
        timeout server  50000

#监控界面
listen  admin_stats
        #监控界面的访问的IP和端口
        bind  0.0.0.0:8888
        #访问协议
        mode        http
        #URI相对地址
        stats uri   /dbs
        #统计报告格式
        stats realm     Global\ statistics
        #登陆帐户信息
        stats auth  admin:123456
#数据库负载均衡
listen  proxy-mysql
        #访问的IP和端口
        bind  0.0.0.0:3306
        #网络协议
        mode  tcp
        #负载均衡算法(轮询算法)
        #轮询算法:roundrobin
        #权重算法:static-rr
        #最少连接算法:leastconn
        #请求源IP算法:source
        balance  roundrobin
       #日志格式
        option  tcplog
        #在MySQL中创建一个没有权限的haproxy用户,密码为空。Haproxy使用这个账户对MySQL数据库心跳检测
        option  mysql-check user haproxy
        server  MySQL_1 172.18.0.2:3306 check weight 1 maxconn 2000
        server  MySQL_2 172.18.0.3:3306 check weight 1 maxconn 2000
        server  MySQL_2 172.18.0.4:3306 check weight 1 maxconn 2000
        #使用keepalive检测死链
        option  tcpka

启动 haproxy 容器

/Users/xinaogudu/hproxy 是我放置配置文件的目录。

docker run -dit -p 4001:8888 -p 4002:3306 -v /Users/xinaogudu/hproxy:/usr/local/etc/haproxy --privileged --net=net1 --name h1 --ip 172.18.0.5 haproxy

进入 haproxy 容器指明配置文件

docker exec -it h1 bash
# 指定 haproxy 配置文件位置
haproxy -c -f /usr/local/etc/haproxy/haproxy.cfg

在数据库中创建一个没有密码的 haproxy 用户用于心跳检测。

create user 'haproxy'@'%' identified by '';

验证

登录 haproxy 监控:http://localhost:4001/dbs

用数据库管理工具连接 haproxy 端口测试:

原文地址:https://www.cnblogs.com/zuoruining/p/11031297.html

时间: 2024-10-09 00:13:23

Docker 创建 PXC 高可用集群并配置 Harpoxy 负载均衡的相关文章

activemq+Zookeper高可用集群方案配置

在高并发.对稳定性要求极高的系统中,高可用的是必不可少的,当然ActiveMQ也有自己的集群方案.从ActiveMQ 5.9开始,ActiveMQ的集群实现方式取消了传统的Master-Slave方式,增加了基于ZooKeeper + LevelDB 的 Master-Slave 实现方式. 相关文章:范例项目: http://wosyingjun.iteye.com/blog/2312553 ActiveMQ的简单实用:http://wosyingjun.iteye.com/blog/2314

(六) Docker 部署 Redis 高可用集群 (sentinel 哨兵模式)

参考并感谢 官方文档 https://hub.docker.com/_/redis GitHub https://github.com/antirez/redis happyJared https://blog.csdn.net/qq_28804275/article/details/80938659 下载redis镜像(不带tag标签则表示下载latest版本) docker pull redis 从github 下载最新的redis.conf,注意重要参数 # 端口 port 6379 #

基于云端虚拟机的LVS/DR+Keepalived+nginx的高可用集群架构配置

最近,公司要我部署一个集群架构,选来选取还是选择了大家都很熟悉的基于DR的LVS+Keepalived做负载分发,然后使用轻量级的nginx做中间代理层,这里呢先暂时实现一个简单web应用功能,对于代理功能和后续的web层部署.数据层安排将择机更新! 首先看一下集群框架:   下面开始我们的集群搭建行程: 一.IP规划: 做一件事情需要想想怎么去做既简单又有条理,我们做项目也应该如此.所以这里一定先做一个简单的规划,对于你后续测试的时候出现不能分发的情况有所解决. 负载均衡层          

FastDFS高可用集群架构配置搭建

https://www.cnblogs.com/sunnydou/p/49b92d511047f4f9da6cd727cfd415d5.html(文章出处) 一.基本模块及高可用架构 FastDFS 是余庆老师开发的一个开源的高性能分布式文件系统(DFS). 它的主要功能包括:文件存储,文件同步和文件访问,以及高容量和负载平衡.FastDFS 系统有三个角色:跟踪服务器(Tracker Server).存储服务器(Storage Server)和客户端(Client). Tracker Serv

linux系统下对网站实施负载均衡+高可用集群需要考虑的几点

随着linux系统的成熟和广泛普及,linux运维技术越来越受到企业的关注和追捧.在一些中小企业,尤其是牵涉到电子商务和电子广告类的网站,通常会要求作负载均衡和高可用的Linux集群方案. 那么如何实施linux集群架构,才能既有效保证网站健康运行,又能节省运维成本呢?下面依据近几年的运维经历,简单梳理下自己的一点感悟. (1)机房的选择如果有自己公司的机房那是再好不过的了:如果没有,建议放在BGP机房内托管,如果有选择的话,最好是选择带有硬件防火墙的机房,这样在安全方面也有保障:网站如若是放在

集群介绍、keepalived介绍、用keepalived配置高可用集群

集群介绍 Linux集群根据功能划分为两大类:高可用和负载均衡. 1.高可用集群通常为2台服务器,一台工作,另一台作为冗余,当提供服务的机器宕机时,冗余将接替继续提供服务. 实现高可用的开源软件有:heartbeat.Keepalived,其中heartbeat很多bug已无人维护(不推荐使用),所以今后使用Keepalived来搭建高可用集群. 2.负载均衡集群,需要有1台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外就是给用户提供服务的服务器了,这些服

集群主要分成三大类 (高可用集群, 负载均衡集群,科学计算集群)

转自:http://blog.csdn.net/nick_php/article/details/52187905 高可用集群( High Availability Cluster) 负载均衡集群(Load Balance Cluster) 科学计算集群(High Performance Computing Cluster) 1.高可用集群(High Availability Cluster) 常见的就是2个节点做成的HA集群,有很多通俗的不科学的名称,比如"双机热备", "

Kubernetes1.10HA高可用集群环境搭建

k8s 高可用2个核心 apiserver master 和 etcd etcd:(需高可用)集群的数据中心,用于存放集群的配置以及状态信息,非常重要,如果数据丢失那么集群将无法恢复:因此高可用集群部署首先就是etcd是高可用集群: Apiserver:提供了资源操作的唯一入口,并提供认证.授权.访问控制.API注册和发现等机制.整个集群中其他角色只有通过Apiserver才能访问etcd.CLI工具kubectl也是通过apiserver来对整体集群进行访问控制. Controller-man

玩转MHA高可用集群

MHA高可用集群 =============================================================================== 概述:  本章将主要介绍MySQL中MHA高可用集群的相关内容,如下: MHA的功能介绍: MHA的集群架构,工作原理: CentOS 7上MHA实战配置部署及故障转移测试: =========================================================================