Memcached 主主复制+ Keepalived 实现 Memcached 高可用架构集群

Memcached +keepalived 高可用集群

Memcached 主主复制这种架构,在程序连接时不知道应该连接哪个主服务器,所以需要在前端增加 VIP 地址,实现高可用架构。这里用 Keepalived 实现,因而 Keepalived 的作用就是用来检测 Memcached 服务器的状态是否正常。
 
Keepalived 不断检测 Memcached 主服务器的11211端口,如果检测到 Memcached 服务发生宕机或者死机等情况,就会将 VIP 从主服务器移至从服务器,从而实现 Memcached 的高可用性。
 

系统环境

主机名 操作系统 IP地址 软件包 VIP地址
Memcached1服务器 CentOS 7.4 x86_64 192.168.100.201 libevent-2.1.8-stable.tar.gz、memcached-1.5.9.tar.gz、magent-0.5.tar.gz、keepalived 192.168.100.200
Memcached2服务器 CentOS 7.4 x86_64 192.168.100.202 libevent-2.1.8-stable.tar.gz、memcached-1.5.9.tar.gz、keepalived 192.168.100.200
Client客户端 CentOS 7.4 x86_64 192.168.100.203 Telnet  

部署服务

 

配置memcached主缓存节点和从缓存节点-----两台配置相同

 

# tar zxvf memcached-1.5.6.tar.gz -C /opt/
# tar zxvf libevent-2.1.8-stable.tar.gz -C /opt/
# yum install gcc gcc-c++ make -y
 
# cd /opt/libevent-2.1.8-stable
# ./configure --prefix=/usr/local/libevent
# make && make install
 
# cd /opt/memcached-1.5.6
# ./configure --prefix=/usr/local/memcached --with-libevent=/usr/local/libevent/
# make && make install
 
# ln -s /usr/local/memcached/bin/* /usr/local/bin/

 

  • 将安装的libevent-2.1.so.6模块建立软链接到/usr/lib64目录下,否则在启动Magent时会出错

    # ln -s /usr/local/libevent/lib/libevent-2.1.so.6 /usr/lib64/libevent-2.1.so.6

     

    在主服务器上安装 Magent

     

    Magent 是一款开源的 Memcached 代理软件,使用它可以搭建高可用性的集群应用的 Memcached 服务 ,备份 Memcached 数据,尽管 Memcached 服务挂掉,前端也能获取到数据,客户端先连到 Magent 代理服务器 ,然后Magent 代理服务器 在可以连接多台 Memcached 服务器,然后可以进行数据的保存和备份数据。这样数据就不会丢失,保存了数据完整性。
     

  • 主服务器
    # wget http://memagent.googlecode.com/files/magent-0.5.tar.gz
    # mkdir /opt/magent
    # tar zxvf magent-0.5.tar.gz -C /opt/magent
    # cd /opt/magent
  • 编译安装前需要先修改文件,否则会报错
    # vim ketama.h   //修改下面的行
        #ifndef SSIZE_MAX
        #define SSIZE_MAX 32767
        #endif
     
    # vim Makefile  //添加路径
    LIBS = -levent -lm -L/usr/local/libevent/lib
    INCLUDE=-I/usr/local/libevent/include
     
    # make 
  • 编译后会生成一个可执行的文件,我们把生成的magent命令让系统识别,并发送到Memcached2服务器
    # cp magent /usr/bin/      //把生成的magent命令让系统识别
    # scp /opt/magent/magent [email protected]:/usr/bin    //把生成的magent命令复制到memcached2服务器

     

在两台memcached服务器上安装配置Keepalived

  • memcached两台服务器的配置不同处已经标注

    # yum install keepalived -y
    # vim /etc/keepalived/keepalived.conf
    router_id MAGENT_HA               //主从不同 自定义
    下面删除4行
    }
     
    //调用这个脚本每2秒检查一次magent状态
    vrrp_script magent {
                script "/opt/shell/magent.sh"
                interval 2
    }
    vrrp_instance VI_1 {
        state MASTER                    // 另一台服务器这里是BACKUP
        interface ens33
        virtual_router_id 51             //虚拟路由ID ,两台相同
        priority 100                         //优先级  从要小于主
        advert_int 1
        authentication {
                auth_type PASS
                auth_pass 1111
        }
    track_script {              //调用上面定义的脚本
                magent
    }
     
    virtual_ipaddress {                       //定义VIP地址
    192.168.100.200
    }
    }
  • 在两台服务器上创建magent.sh脚本便于keepalived调用
  • memcached1服务器
    # mkdir -p /opt/shell/
    # cd /opt/shell/
    # vi magent.sh
     
    #!/bin/bash
    K=`ps -ef | grep keepalived | grep -v grep | wc -l`
    if [ $K -gt 0 ]; then
        magent -u root -n 51200 -l 192.168.100.200 -p 12000 -s 192.168.100.201:11211 -b 192.168.100.202:11211
    else
    pkill -9 magent
    fi
  • 脚本添加执行权限,并开启keepalived服务
    # chmod +x magent.sh
    # systemctl start keepalived.service
    # ip addr    //查看VIP的IP地址
  • 脚本选项解释
    -n 51200 //定义用户最大连接数
    -l    //指定虚拟IP
    -p 12000  //指定端口号
    -s //指定主缓存服务器
    -b //指定从缓存服务器
  • memcached2服务器
    # mkdir -p /opt/shell/
    # cd /opt/shell/
    # vi magent.sh
     
    #!/bin/bash
    K=`ip addr | grep 192.168.100.200 | grep -v grep | wc -l`
    if [ $K -gt 0 ]; then
        magent -u root -n 51200 -l 192.168.100.200 -p 12000 -s 192.168.100.201:11211 -b 192.168.100.202:11211
    else
    pkill -9 magent
    fi
  • 脚本添加执行权限,并开启keepalived服务
    # chmod +x magent.sh
    # systemctl start keepalived.service

     
     

    在客户端上测试

  • 测试主主复制

    我们在客户端上使用Telnet登录VIP地址并写入数据,在两台memcached缓存服务器上可以看到数据都已经同步

  • 测试高可用性

    将memcached1服务器宕机,登录memcached2服务器,查看IP地址,此时VIP已经漂移到memcached2服务器上

原文地址:http://blog.51cto.com/13625676/2159997

时间: 2024-10-12 21:29:23

Memcached 主主复制+ Keepalived 实现 Memcached 高可用架构集群的相关文章

lvs+keepalived+nginx+tomcat高可用高性能集群部署

2台前端 keepalived+lvs,热备的方式,保证一台lvs前端能正常访问就行,如果一台down,另外一台热备升级到master主机 master: 192.168.1.210 ubuntu 12.0.4 salve: 192.168.1.211 ubuntu 12.0.4 后端2台web服务器通过lvs的算法轮询被访问 web1: 192.168.1.204 centos 5.10 nginx+tomcat web2: 192.168.1.206 centos 5.10 nginx+to

nginx+keepalived+tomcat配置高可用web集群

基本架构: 角色 ip 安装软件 作用 主机名 nginx主 192.168.247.129 nginx+keepalived 反向代理 nginxmaster.com nginx备 192.168.247.130 nginx+keepalived 反向代理 nginxsalve.com tomcat1 192.168.247.128 tomcat web服务器 tomcat1.com tomcat2 192.168.247.131 tomcat web服务器 tomcat2.com nfs主

keepalived高可用lvs集群,主/备和主/主模型

利用keepalived高可用lvs集群,主/备和主/主: vrrp_script高可用双主nginx: keepalived主备:lvs-dr工作模型 网络搭建: 在前端2台调度器: DR1:172.18.11.111 DR2:172.18.11.112 VIP:172.18.11.7 后端2台web服务器,运行nginx: RS1:172.18.11.11 RS2:172.18.11.12 搭建web服务器: 提供简单的测试页面,以便容易观测到哪台RS被调度响应: 在RS1上: ]# yum

Keepalived+Nginx+Tomcat 实现高可用Web集群(转)

Keepalived+Nginx+Tomcat 实现高可用Web集群 溯水心生 关注 2018.01.08 20:28* 字数 1382 阅读 965评论 1喜欢 9 集群规划图片 一.Nginx的安装过程 1.下载Nginx安装包,安装依赖环境包 (1)安装 C++编译环境 yum -y install gcc #C++ (2)安装pcre yum -y install pcre-devel (3)安装zlib yum -y install zlib-devel (4)安装Nginx 定位到n

整个MHA+keepalived+lvs+mysql高可用架构配置说明

整个MHA+keepalived+lvs+mysql高可用架构配置说明1.1. 环境简介1.1.1.vmvare虚拟机,系统版本CentOS7.5 x86_64位最小化安装,mysql的版本5.7.21,1.1.2.虚拟机器的ssh端口均为默认22,1.1.3.虚拟机的iptables全部关闭,1.1.4.虚拟机的selinux全部关闭,1.1.5.虚拟机服务器时间全部一致 ntpdate 0.asia.pool.ntp.org1.1.6.3台机器的ssh端口为22**1.2.此次试验采用的是3

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置 LB集群是locd balance集群的简称.翻译成中文是:负载均衡集群的意思:集群是一组相互独立的.通过高速网络互联的计算机相互之间构成一个组合,并以单一的系统的模式加以管理.LVS是Linux Virtual Server的简写,翻译中文是Linux虚拟服务器,是一个虚拟的服务器集群系统. 负载均衡集群:是为了企业提供更为实用,性价比更高的系统机构解决方案.负载均衡集群把用户的请求尽可能的平均分发到集群的各

搭建LVS+Keepalived高可用负载集群

搭建LVS+Keepalived高可用负载集群 最近,本屌接到公司的任务,公司新上20台服务器,需要搭建一整套架构来运行公司的业务,其中有应用服务器,认证服务器,数据库服务器等.服务器基础架构中的应用服务器集群要有高可用性,且需要负载均衡.当我接到这个任务的时候,脑子里第一个想法就是LVS+Keepalived. 由于公司资金有限,直接上硬件的负载均衡设备是不可能的了,所以只好使用软件来实现,LVS在负载均衡集群中无疑是一种很好的方案,使用LVS可以同时分发10台以下的设备,用在我们这个项目中是

nginx结合keepalived做高可用负载集群服务

一.概述 前面几篇介绍了nginx做web网站以及https网站,反向代理,LVS的NAT与DR调度负载,但由于nginx本身负载是七层,需要套接字,即使基于upstream模块模拟成四层代理也是瓶颈,因此本文介绍nginx基于keepalived做高可用负载均衡集群服务,目标就是两台keepalived对nginx反向代理负载服务做检查与调度,做成双主模式,nginx负载调度后端的httpd网站,任何一台调度器(nginx或keepalived服务)故障,不影响业务;后端任何一台web故障也不

Keepalived+LVS实现web高可用负载集群

目标:基于LVS的DR模型实现keepalived高可用负载集群 拓扑图: 一.准备好DR模型的Real server1和Realserver2两个节点 1.此处我就用脚本来快速的部署这两个节点,脚本内容如下: #!/bin/bash vip=192.168.1.100 interface="lo:0" case $1 in               start)                   echo 1 > /proc/sys/net/ipv4/conf/all/ar