LB-HA负载均衡结合高可用keepavlied

LVS结合keepalived配置

ipvsadm –C                         清空ipvsadm规则

ipvsadm –ln                        查看ipvsadm规则

ifconfig eth0:0 down        卸载网卡

ip addr                                  查看keepalived的隐藏ip

官网:http://www.keepalived.org

Keepalived、NAT、DR分开做。

准备五台机器

Directo1r负载均衡调度器,网卡(公网IP,实验用nat)eth0:192.168.134.140

Vip:192.168.134.150

Director2负载均衡调度器,网卡(公网IP,实验用nat)eth0:192.168.134.137

Vip:192.168.134.150

Real server1真实服务器,网卡(公网IP,实验用nat)eth0:192.168.134.137

Real server2真实服务器,网卡(公网IP,实验用nat)eth0:192.168.134.138

Client 客户端 网卡(公网IP,实验用nat)eth0:192.168.134.136--à用来测试curl

Directo1r调度器和Director2调度器同时安装keepalived和ipvsadm

yum install -y keepalived

yum install –y ipvsadm --à用于查看规则IP

安装后,编辑keepalived文件

vim /etc/keepalived/keepalived.conf

vrrp_instance VI_1 {

state MASTER   #备用服务器上为BACKUP

interface eth0

virtual_router_id 51

priority 100  #备用服务器上为90

advert_int 1

authentication {

auth_type PASS

auth_pass 1111

}

virtual_ipaddress {

192.168.134.150

}

}

virtual_server 192.168.134.150 80 {

delay_loop 6                  #(每隔10秒查询realserver状态)

lb_algo rr                  #(lvs 算法)

lb_kind DR                 #(Direct Route)

persistence_timeout 0        #(同一IP的连接60秒内被分配到同一台realserver)

protocolTCP                #(用TCP协议检查realserver状态)

real_server 192.168.134.137 80 {

weight 100               #(权重)

TCP_CHECK {

connect_timeout 10       #(10秒无响应超时)

nb_get_retry 3

delay_before_retry 3

connect_port 80

}

}

real_server192.168.134.138 80 {

weight 100

TCP_CHECK {

connect_timeout 10

nb_get_retry 3

delay_before_retry 3

connect_port 80

}

}

}

改完把配置文件推送到Director2负载均衡器

yum install–y openssh-clients -à注意不是与scp相关的,传输的两台机器都要装这个命令,然后输入yes,再输入对方密码。

scp命令是在同一网段内,直接拷贝在远程机器(还不确定)因为主机没有scp命令。所以要yum

scp /etc/keepalived/keepalived.conf192.168.134.136:/etc/keepalived/keepalived.conf

以上为Directo1r负载均衡器的配置文件,从上Director2负载均衡器的配置文件只需要修

state MASTER  -> state BACKUP

priority 100 -> priority 90

配置完keepalived/后,需要开启端口转发(主从都要做):

echo 1 >/proc/sys/net/ipv4/ip_forward
然后,两个rs上执行 /usr/local/sbin/lvs_dr_rs.sh 脚本
最后,两个director上启动keepalived/服务(先主后从):
/etc/init.d/keepalived start
另外,需要注意的是,启动keepalived/服务会自动生成vip和ipvsadm规则,不需要再去执行上面提到的/usr/local/sbin/lvs_dr.sh 脚本。

//要是做了DR,再测试可能会有缓存,但目的不是这个,宕掉服务器访问不异常。

编译安装:

cd/usr/local/src/

wgethttp://www.keepalived.org/software/keepalived-1.2.6.tar.gz

tar -zxvfkeepalived-1.2.6.tar.gz

cd keepalived-1.2.6

yum install -y openssl openssl-devel

yum install –y popt-devel

./configure--prefix=/usr/local/keepalived

cp/usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/keepalived

chmod +x/etc/init.d/keepalived

vim/etc/init.d/keepalived

15行修改或添加

./usr/local/keepalived/etc/sysconfig/keepalived

//下面添加

PATH="$PATH:/usr/local/keepalived/sbin"

export PATH

vim/usr/local/keepalived/etc/sysconfig/keepalived

KEEPALIVED_OPTIONS="-D-f /usr/local/keepalived/etc/keepalived/keepalived.conf"

/etc/init.d/keepalivedstart

解释请看《keepalived编译安装

错误:

configure: error:

!!!OpenSSL is not properly installed on your system. !!!

!!!Can not include OpenSSL headers files.            !!!

解决办法:yum install -y openssl openssl-devel

configure: error: Popt libraries isrequired

解决办法:yum install –y popt-devel

时间: 2024-10-16 06:02:33

LB-HA负载均衡结合高可用keepavlied的相关文章

Keepalived+LVS+Nginx负载均衡之高可用

Keepalived+LVS+Nginx负载均衡之高可用 上一篇写了nginx负载均衡,此篇实现高可用(HA).系统整体设计是采用Nginx做负载均衡,若出现Nginx单机故障,则导致整个系统无法正常运行.针对系统架构设计的高可用要求,我们需要解决Nginx负载均衡出现单机故障时,系统正常运行的需求.所以系统架构引入Keepalived组件,实现系统高可用. 一.Keepalived介绍 Keepalived是分布式部署系统解决系统高可用的软件,结合LVS(Linux Virtual Serve

Nginx之二:负载均衡及高可用

一.Nginx负载均衡及高可用简介 负载均衡是为了解决单个节点压力过大,造成Web服务响应过慢,严重的情况下导致服务瘫痪,无法正常提供服务.负载均衡,将用户的所有HTTP请求均衡的分配到每一台机器上,充分发挥所有机器的性能,提高服务的质量和用户体验.负载均衡常用的Web服务器软件有Nginx.HAProxy.LVS.Apache. Nginx负载均衡是通过upstream模块来实现的,常见四种负载策略: 轮循(默认:将每个请求均匀分配到每台服务器 最少连接:将请求分配给连接数最少的服务器 IP

Keepalived_tengine实现discuz负载均衡和高可用

前言: 上篇博文<keepalived_nginx实现discuz负载均衡和高可用>讲到,由于nginx将health_check功能放入到了商业版本,导致社区版本的nginx进行负载均衡,无法对后端的RS主机进行健康状态检测,所以现在准备使用tengine来取代nginx.我们只需要将前一章节VS主机上的nginx替换为tengine即可. 配置: Host VS1 卸载nginx,安装tengine # yum remove -y nginx # yum groupinstall -y &

Nginx反向代理、负载均衡, keepalived高可用

Nginx反向代理.负载均衡,  keepalived高可用 Nginx反向代理.负载均衡,  keepalived高可用 一.Nginx反向代理.负载均衡 1.什么是反向代理.负载均衡 严格的说,Nginx仅仅是作为Nginx Proxv反向代理使用的,因为这个反向代理功能表现的效果是负载均衡集群的效果,所以本文称之为Nginx负载均衡.那么,反向代理和负载均衡有什么区别呢? 普通负载均衡软件,例如大名鼎鼎的LVS,其实现的功能只是对请求数据包的转发(也可能会改写数据包).传递,其中DR模式明

实战 LVS+Keepalived 实现负载均衡和高可用

1.软件介绍 LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统,可以实现LINUX平台下的简单负载均衡. LVS负载均衡有4种负载均衡方式 a.DR 模式 b.NAT 模式 c.Tunnel 模式 d.Full NAT 模式 LVS负载均衡8种调度算法 (rr,wrr,lc,wlc,lblc,lblcr,dh,sh) 各个模式的原理在此不再赘述,本文使用DR模式,rr调度算法. Keepalived 是运行在lvs 之上,它的主要功能是

nginx负载均衡+keepalived高可用完全配置小结

nginx做负载均衡(无高可用) 大致步骤. 1. 前端 nginx安装,pcre安装,具体步骤不解释. 2. 负载配置 A. 默认轮循 在nginx.conf  里加入一行 include upstream.conf,然后所有的负载均衡的配置直接在upstream.conf里配置. [[email protected] conf]# cat upstream.conf upstream httpservers { server 192.168.137.10:80 weight=5; serve

Nginx代理MogileFS并实现负载均衡和高可用

Nginx代理MogileFS并实现负载均衡和高可用 MogileFS nginx 负载均衡 大纲 实验环境 实验步骤 配置MogileFS 配置Nginx 总结 前言 上篇文章我们了解分布式系统和MogileFS的基本使用, 但是那样的架构是有问题的, 本篇文章我们来了解一下如何使用nginx-mogilefs-module-master模块来构建一个不一样的 MogileFS Cluster 实验拓扑 实验环境 主机 IP 功用 node6 172.16.1.7 Nginx,Tracker,

用haproxy结合keepalived实现基于LNMP的负载均衡和高可用

今天我们讲haproxy结合keepalived实现LNMP的负载均衡和高可用,现在的公司大部分都基于haproxy实现负载均衡.下面以一个事例去给大家详细讲解如何去实现: 一.用haproxy结合keepalived实现基于lnmp的负载均衡和高可用服务,要求: (1)实现动静分离,图片和css,js都分离到专门的静态服务器上 (2)只允许172.17网段用户访问 (3)对于动态请求,要求实现基于cookie的会话保持 整体架构如下: 1.实验前需要关闭防火墙和selinux,以及同步时间.

nginx反向代理tomacat+keepalived实现动静分离、负载均衡、高可用

本文的动静分离主要是通过nginx+tomcat来实现,其中nginx处理图片.html.JS.CSS等静态文件,tomcat处理jsp.servlet等动态请求 服务器名称                                 系统版本                           预装软件                     IP地址 Nginx服务器                             CentOS 7 最小安装              Nginx