9.负载均衡lvs+keepaived


1、安装lvs

(LB端)


#/etc/init.d/keepalived stop                       #停止keepalived高可用

#/application/nginx/sbin/nginx -s stop             #停止nginx反向代理

rpm -qa ipvsadm                                    #检查是否已安装软件

yum -y install ipvsadm

ls /usr/src/kernels

uname -r

#yum -y update kernel kernel-devel

#我遇到过的坑  uname看到的内核和安装的内核版本不一致 需要更新内核 再重启!重启!重启!

#reboot

ln -s /usr/src/kernels/$(uname -r) /usr/src/linux

lsmod |grep ip_vs


2、配置lvs

(LB端)


ip addr add 10.0.0.3/24 dev eth0 label eth0:0      #添加vip

#ipvsadm --help                                    #查看帮助

ipvsadm -C                                         #清空所有

ipvsadm -A -t 10.0.0.3:80 -s wrr                   #-A 添加虚拟服务 -t 指定tcp服务地址 -s 调度算法

ipvsadm -a -t 10.0.0.3:80 -r 10.0.0.7:80 -g -w 1   #添加节点Rs -g 表示dr模式

ipvsadm -a -t 10.0.0.3:80 -r 10.0.0.8:80 -g -w 1

ipvsadm --set 30 5 60                     #--set tcp tcpfin udp set connection timeout values

ipvsadm -Ln                                        #查看ipvs情况

#以上服务器端搭建完毕!


服务端删除节点:

ipvsadm -d -t 10.0.0.3:80 -r 10.0.0.8:80

ipvsadm -d -t 10.0.0.3:80 -r 10.0.0.7:80

ip addr del 10.0.0.3/24 dev eth0

虽然lvs没有自动剔除坏节点的功能,但是可以通过编写脚本检测进行删除节点!


3、绑定VIP

(RS端)


ip addr add 10.0.0.3/32 dev lo label lo:0          #绑定vip,此处必须和LB端的vip保持一致

route add -host 10.0.0.3 dev lo                    #添加静态路由,可有可无。


4、抑制ARP

(RS端)


echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore

echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce

echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore

echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce


5、keepalived

直接管理ipvs

(LB端)


cd /etc/keepalived/

cat >keepalived.conf<<EOF

! Configuration File for keepalived

global_defs {

router_id LVS_DEVEL

}

vrrp_instance VI_1 {

state MASTER                                   #主

interface eth0

virtual_router_id 51

priority 150

advert_int 1

authentication {

auth_type PASS

auth_pass 1111

}

virtual_ipaddress {

#        10.0.0.3/24 dev eth0 label eth0:1      #参照老师的操作 这里是个天坑呀   因为和后面rs端vip的掩码不一样会导致访问不通   千万别写24了呀    此事耽误了我2天时间!

10.0.0.3    dev eth0 label eth0:1

}

}

virtual_server 10.0.0.3 80 {

delay_loop 6

lb_algo rr

lb_kind DR

nat_mask 255.255.255.0

persistence_timeout 50

protocol TCP

real_server 10.0.0.7 80 {

weight 1

TCP_CHECK {

connect_timeout 5

nb_get_retry 3

delay_before_retry 3

connect_port 80

}

}

real_server 10.0.0.8 80 {

weight 1

TCP_CHECK {

connect_timeout 5

nb_get_retry 3

delay_before_retry 3

connect_port 80

}

}

}

EOF

ipvsadm -C                                    #清空所有

ipvsadm -Ln                                   #查看ipvs情况

/etc/init.d/keepalived start

ipvsadm -Ln

tailf /var/log/messages                       #检查日志

for n in `seq 5`;do curl 10.0.0.3;sleep 1;done         #客户机的检测脚本


总结

keepalived+lvs的DR模式


处理了两次大坑:

1、疑问:安装lvs的时候需要 ln -s /usr/src/kernels/`uname -r` /usr/src/linux 创建不成功软链接? 解决方法:后面经过鸡血哥老师的聊天指导,通过 yum -y update kernel kernel-devel  然后重启解决!

原因:我之前没有更新过内核 也yum update过,但是没有重启没有生效!重启生效呀!

2、 按照老师的视频来的,结果keepalived.conf的vip地址写的是10.0.0.3/24端绑定lo网卡的却是10.0.0.3/32,结果导致keepalived的健康检测老是后面节点rs不通!

解决方法:修改keepalived.conf的vip为10.0.0.0 dev eth0 label eth0:1  解决问题!

参考别人的链接:http://www.cnblogs.com/ivictor/p/5261445.html

LVS+Keepalived搭建MyCAT高可用负载均衡集群

时间: 2024-10-19 00:10:12

9.负载均衡lvs+keepaived的相关文章

Linux集群-负载均衡lvs介绍及lvs-nat实现https

一.Linux集群 Linux集群系统保护集群管理器和集群节点两部分组成.集群节点简称为节点.服务器或服务器节点,是用来提供资源,进行集群的实际工作.一般来说,它必须进行配置后才能称为集群的一部分,同时也要运行集群用到的应用程序.Linux集群管理器再将各节点捆绑在一起,它用于将任务分解到所有的节点.简单的说,就是按照某种方式把服务器连起来来完成一种特定的任务,提高服务器的响应能力. scale on 在单台主机上提高服务器性能, scale out 增加服务器的数量来提高,负载均衡的集群. 二

负载均衡--LVS+Keepalived

利用LVS+Keepalived 实现高性能高可用负载均衡    背景: 随着你的网站业务量的增长你网站的服务器压力越来越大?需要负载均衡方案!商业的硬件如F5又太贵,你们又是创业型互联公司如何有效节约成本,节省不必要的浪费?同时实现商业硬件一样的高性能高可用的功能?有什么好的负载均衡可伸张可扩展的方案吗?答案是肯定的!有!我们利用LVS+Keepalived基于完整开源软件的架构可以为你提供一个负载均衡及高可用的服务器. 一.LVS+Keepalived 介绍 1. LVS LVS是Linux

负载均衡LVS—ipvsadm应用详解

负载均衡LVS-ipvsadm应用详解 环境:64位Centos 6.4 1.在director上安装ipvsadm工具(这里使用RPM包) //挂载光盘,搜索ipvsadm工具安装包 [[email protected] ~]# mount /dev/cdrom /media/cdrom/ [[email protected] ~]# cd /media/cdrom/Packages [[email protected] Packages]# ll |grep ipvsadm //安装ipvs

负载均衡LVS之NAT模式实现的详细步骤

负载均衡LVS之NAT模式实现的详细步骤 1.数据流程图 2.环境说明 1) 四台主机,时间同步,关闭防火墙和selinux 2) 各主机角色 1] 客户端:192.168.110.27 仅主机(vmnet1) 网关:无 2] RS服务器: 192.168.136.36 仅主机(vmnet6) 网关:192.168.136.35 192.168.136.37 仅主机(vmnet6) 网关:192.168.136.35 3] VS服务器:192.168.110.35 仅主机(vmnet1) 192

负载均衡LVS

可参考:http://ixdba.blog.51cto.com/2895551/555738 http://os.51cto.com/art/201202/319979.html 也可以参考官网:http://zh.linuxvirtualserver.org/ 具体实践,待做 负载均衡系统可以选用LVS方案,而为避免Director Server单点故障引起系统崩溃,我们可以选用LVS+Keepalived组合保证高可用性. 可参考:http://www.jizhuomi.com/softwa

Linux集群之高可用负载均衡lvs+keepalived

LVS简介 LVS介绍 LVS是Linux Virtual Server的缩写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统,属于4层负载均衡 ipvs和ipvsadm的关系 我们使用配置LVS的时候,不能直接配置内核中的ipvs,需要使用ipvs的管理工具ipvsadm进行管理 LVS术语 LVS转发原理 LVS负载均衡器接受所有入站请求,并根据调度算法决定哪个realserver处理该请求 LVS调度算法 轮询(rr):按照请求顺序轮流分发到后端RS 加权轮询(wrr):权值高的获得

负载均衡LVS集群详解

 一.LB--负载均衡 在负载均衡集群中需要一个分发器,我们将其称之为Director,它位于多台服务器的上面的中间层,根据内部锁定义的规则或调度方式从下面的服务器群中选择一个以此来进行响应请求,而其分发的方式则是根据某个算法进行的. 二.HA--高可用 高可用顾名思义就是服务的可用性比较高,即当我们不会因为某台服务器的宕机,从而造成我们的服务不可用,其工作模式则是将一个具有故障的服务转交给一个正常工作的服务器,从而达到服务不会中断. 三.LVS: LVS:Linux Virtual Serve

负载均衡LVS概述以及DR模式简易部署

前言: 在做这个实验之前,总觉得高可用负载均衡很高大上,很难理解.随性我自己也去试试,后来发现真的是这样!或许因为我是新手,所以实验多以失败告终.加上自己的虚拟机环境很恶心,经常故障,不过最后还是简单地搭建了一个LVS.以下内容是我总结了大多个博文而来,文后注有博文来源. LVS是Linux Virtual Server的简称,也就是Linux虚拟服务器, 是一个由章文嵩博士发起的自由软件项目,它的官方站点是www.linuxvirtualserver.org.现在LVS已经是 Linux标准内

乾坤大挪移之负载均衡LVS

乾坤大挪移:乃在颠倒一刚一柔.一阴一阳的乾坤二气,乾坤心法"汇集藏密与西域绝世秘传心法之精华,其功效震古烁今,至高无上.勤修之则催动任何武林上乘功法如探囊取物耳.其式寥寥数言,但气效极巨,正所谓"大道至简"也. 这"乾坤大挪移"心法,实则是运劲用力的一项极巧妙法门,(第一层)龙象成就,(第二层)十诀剑气,(第三层)逍遥乾坤,(第四层)吸劲神魔,(第五层)横空挪移,(第六层)乾坤归一,(第七层)无极心法,伪道养形,真道养神,通此道者,能存能亡,神能飞行,并能