HA   LB   LVS   KEEPALIVED

1  HA = high available (主从 主宕掉之后,从自动启动工作)

软件 heartbeat

需要关闭 iptables selinux

编辑 /etc/hosts 把两台主机的ip 主机名写进去(两台)

192.168.1.110 master
192.168.1.111 slave

安装heartbeat    (yum安装.没有的话安装epel扩展源)

yum install -y heartbeat

由于heartbeat 依赖于包libnet 所以也需要安装

yum install -y libnet

配置(master机器)

需要复制一些配置文件样例

cd /usr/share/doc/heartbeat-3.0.4/
cp authkeys ha.cf haresources  /etc/ha.d/

编辑配置文件  首先 需要编辑 authkeys(用来验证对方是否存活 验证方式crc:最简单 md5 第二 shal 最复杂  用哪个把#去掉 )

更改权限

chmod 600 authkeys

更改haresources编辑如下一行

#node 10.0.0.170 Filesystem::/dev/sda1::data1::ext2

改为

master 192.168.1.222/24/eth0:0 nginx

主机名 VIP(流动ip) 监测的服务

编辑ha.cf   可改为

debugfile /var/log/ha-debug        排障log
logfile /var/log/ha-log            log日志  两个差不多
logfacility     local0             日志级别
keepalive 2                        2秒探测一次
deadtime 30                        如果30s不通,就认为对方死掉了
warntime 10                        10s不通,发出警告,记录在日志文件中
initdead 60                        防止对方重启,预留的时间
udpport 694                        心跳线的端口
ucast eth1 192.168.21.100          配置对方ip的可以用bcast(光标)
auto_failback on                   on如果被启动了,主回复了,被自动取消
node    aming                      主机1
node    aming1                     主机2
ping 192.168.21.1                  仲裁者 判断一个存活 一般为路由器或交换机
respawn hacluster /usr/lib/heartbeat/ipfail     脚本 监测网络联通性

改完之后需要cp到从上去  需要把ha.cf中ip改为对方ip

启动heartbeat (先主后从)

/etc/init.d/heartbeat start

(自动启动nginx)

2  LB =load balance (负载均衡)(多台服务器同时工作)

常见负载均衡软件 nginx 应用层级别7  lvs 网络层4    keepalived

硬件设备  F5   Netscale

lvs有三种模式 NAT/TUN/DR

详情可以查看 www.it165.net/admin/html/201401/2248.html

固定调度算法: rr,wrr,dh,sh

动态调度算法:wlc,lc,lblc,lblcr

3   lvs结合keepalived

安装keepalived (所有机器)

yum install -y keepalived

编辑配置文件

vim /etc/keepalived/keepalived.conf

加入

vrrp_instance VI_1 {
    state MASTER   #备用服务器上为 BACKUP
    interface eth0
    virtual_router_id 51
    priority 100  #备用服务器上为90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.0.100
    }
}
virtual_server 192.168.0.100 80 {
    delay_loop 6                  #(每隔10秒查询realserver状态)
    lb_algo wlc                  #(lvs 算法)
    lb_kind DR                  #(Direct Route)
    persistence_timeout 60        #(同一IP的连接60秒内被分配到同一台realserver)
    protocol TCP                #(用TCP协议检查realserver状态)

    real_server 192.168.0.21 80 {
        weight 100               #(权重)
        TCP_CHECK {
        connect_timeout 10       #(10秒无响应超时)
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
real_server 192.168.0.22 80 {
        weight 100
        TCP_CHECK {
        connect_timeout 10
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
     }
}

以上为主director的配置文件,从director的配置文件只需要修改
state MASTER  -> state BACKUP
priority 100 -> priority 90
配置完keepalived后,需要开启端口转发(主从都要做):
echo 1 > /proc/sys/net/ipv4/ip_forward
然后,两个rs上执行 /usr/local/sbin/lvs_dr_rs.sh 脚本
最后,两个director上启动keepalived服务(先主后从):
/etc/init.d/keepalived start
另外,需要注意的是,启动keepalived服务会自动生成vip和ipvsadm规则,不需要再去执行上面提到的/usr/local/sbin/lvs_dr.sh 脚本。

4  nginx负载均衡

新增加一个配置文件

cd /usr/local/nginx/conf/vhosts/
vim lb.conf

写入

upstream fanfan {
    server 192.168.1.1:80 (weight=2); (权重)
    server 192.168.1.2:80 (weight=1);
}
(规定负载均衡有几台机器,都是什么)

server {
    listen 80;
    server_name www.123.com
    location / {
        proxy_pass http://fanfan/;
        proxy_set_header Host $host;
        }
 }
 (监听80端口  域名为  代理方式  )

启动nginx

ipvsadm -C
iptables -F
时间: 2024-12-23 23:36:51

HA   LB   LVS   KEEPALIVED的相关文章

Linux下架构高可用性网络----HA+LB+lvs

实验总拓扑: IP规划: Director1:     eth0      192.168.10.136/28 eth1      192.168.11.2/24 Director2:     eth0      192.168.10.135/28 eth1      192.168.11.1/24 web1            eth0      192.168.10.133/28 web2            eth0      192.168.10.134/28 注意:ip地址为:19

LB集群之LVS/keepalived

在上一个实验的基础上LVS/DR (NTA,DR HA 都是用 nginx 服务操作的,省去了安装nginx安装配置) lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把httpd进程停掉,那么director照样会把请求转发过去,这样就造成了某些请求不正常.所以需要有一种机制用来检测real server的状态,这就是keepalived.它的作用除了可以检测rs状态外,还可以检测备用director的状态,也就是说keepalived(集HA+LB

高可用群集HA介绍与LVS+keepalived高可用群集

一.Keepalived介绍 通常使用keepalived技术配合LVS对director和存储进行双机热备,防止单点故障,keepalived专为LVS和HA设计的一款健康检查工具,但演变为后来不仅仅为LVS提供方案,Keepaliced支持故障自动切换(Failover),支持节点健康状态检查(Health Checking),官方网站http://www.keepalived.org/ Keepalived采用VRRP的热备份协议实现Linux服务器的多机热备功能,VRRP,虚拟路由冗余协

LVS+Keepalived 实现高可用负载均衡集群

简介: 随着网站业务量的增长,网站的服务器压力越来越大?需要负载均衡方案!商业的硬件如 F5 ,Array又太贵,你们又是创业型互联公司如何有效节约成本,节省不必要的浪费?同时还需要实现商业硬件一样的高性能高可用的功能?有什么好的负载均衡可伸张可扩展的方案吗?有!我们利用LVS+Keepalivd基于完整开源软件的架构可以为你提供一个负载均衡及高可用的服务器.  一.LVS+Keepalived  介绍 1.  LVS LVS是Linux Virtual Server的简写,意即Linux虚拟服

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置 LB集群是locd balance集群的简称.翻译成中文是:负载均衡集群的意思:集群是一组相互独立的.通过高速网络互联的计算机相互之间构成一个组合,并以单一的系统的模式加以管理.LVS是Linux Virtual Server的简写,翻译中文是Linux虚拟服务器,是一个虚拟的服务器集群系统. 负载均衡集群:是为了企业提供更为实用,性价比更高的系统机构解决方案.负载均衡集群把用户的请求尽可能的平均分发到集群的各

LVS+keepalived实现负载均衡&高可用

一.实验环境需求&准备 我们这次实验要完成的一个架构如下图所示,我们通过LVS-DR-MASTER,LVS-DR-BACKUP作为LVS负载均衡调度器,并且两者之间通过keepalived来两者之间的HA.keepalived本身就是为了LVS为开发的,所以说我们通过keepalived来进行LVS的配置就显得十分的方便.而且keepalived是直接操作ip_vs不用通过ipvsadm,所以更加方便. 1)实验架构图&需求表: 角色 IP地址 备注 主LVS调度器(MASTER) 192

LVS+Keepalived实现DBProxy的高可用

背景 在上一篇文章美团点评DBProxy读写分离使用说明实现了读写分离,但在最后提了二个问题:一是代理不管MySQL主从的复制状态,二是DBProxy本身是一个单点的存在.对于第一个可以通过自己定义的检测规则进行操作Admin接口,实现主从状态异常的处理.而对于第二个问题,需要再起一个DBProxy来防止单点故障,本文通过介绍LVS来实现DBProxy的负载均衡和高可用.MySQL的架构如下: LVS基础 http://www.linuxvirtualserver.org/zh/lvs1.htm

利用lvs keepalived配置redis高可用及负载均衡

需求 我们用ES做日志服务,架构是 上游数据来源=>redis=>logstash=>ES redis目前还是单点, 没有做高可用, 现在数据量越来越多, 如果下游消费不出问题还好, redis里面数据来了就走,但是下游一旦出问题, 分给redis的内存半小时就撑满了. 看到redis3.0 beta版本已经提供了集群功能, 但是需要client以集群模式接入, 我们这么多上游用户, 不太可能统一要求他们改造. 公司也有硬件的LB, 同事在E公司的时候就是用的硬件LB. 但接入还要申请,

(2)LVS+Keepalived高可用负载均衡架构原理及配置

1.keepalived 介绍2.keepalived 优缺点3.keepalived 应用场景4.keepalived 安装配置5.keepalived+lvs 高可用6.keepalived+nginx 高可用7.keepalived 切换原理8.性能优化9.常见故障 一.keepalived 介绍 1.keepalived 定义keepalived是一个基于VRRP(virtual route redundent protocol)协议来实现的LVS服务高可用方案,可以利用其来避免单点故障