LB集群之LVS/DR

[[email protected] ~]# ipvsadm -C  #清空掉之前的LVS/nat 的规则

[[email protected] ~]# ipvsadm -ln

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port           Forward Weight ActiveConn InActConn

[[email protected] ~]# iptables -t nat -F #iptables 规则也清掉

把原来rs1&rs2 的黙认网关也更改回来.

简述:

10.72.4.48(dir)10.72.4.100(vip),10.72.4.21(rs1), 10.72.4.39(rs2)

DR 要求IP 都是公网IP ,这个比较费资源。每一个rs 都要一个独立的公网IP,因为他需要对外提供服务。vip 10.72.4.100 这个IP 并不需要单独来配置,写在脚本里面,即可。

---------------------------------------------------------------------

lvs/dr 的配置:

[[email protected] ~]# vim /usr/local/sbin/lvs_nat.sh #在dr上配置

#! /bin/bash

echo 1 > /proc/sys/net/ipv4/ip_forward

ipv=/sbin/ipvsadm

vip=10.72.4.100   #设置vip

rs1=10.72.4.21

rs2=10.72.4.39

ifconfig eth0:0 $vip broadcast $vip netmask 255.255.255.255 up

route add -host $vip dev eth0:0

$ipv -C

$ipv -A -t $vip:80 -s rr

$ipv -a -t $vip:80 -r $rs1:80 -g -w 1 #此处的权重是可以根据实际需要来更改

$ipv -a -t $vip:80 -r $rs2:80 -g -w 1

[[email protected] ~]# vim /usr/local/sbin/lvs_nat.sh #在rs1& rs2 上做同样的配置,脚本无需更改

#! /bin/bash
vip=10.72.4.100 #配置vip
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce

[[email protected] ~]# vim /usr/local/sbin/lvs_nat.sh #在rs1& rs2 上做同样的配置

#! /bin/bash
vip=10.72.4.100
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce

分别在dir  rs1 rs2 上运行刚才写的脚本

sh /usr/local/sbin/lvs_nat.sh

[[email protected] sbin]# sh lvs_nat.sh

[[email protected] sbin]# ipvsadm -ln

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port           Forward Weight ActiveConn InActConn

TCP  10.72.4.100:80 rr

-> 10.72.4.21:80                Route   1      0          0

-> 10.72.4.39:80                Route   1      0          0

ifconfig 在rs1&rs2 都可以看到已经绑定VIP:10.72.4.100

在dir 上的查询:

不能在本机上用curl 来测试,虽然在dir 上能看IP 10.72.4.100,curl 的时候数据包可以出去,但是回不来,因为的他的子网是4个255,详见下图.如查需要测试必须得再开一台linux 客户端。

用IE 通过IP访问 10.72.4.100,可以得到以下效果,楼主要实际做实验的过程中得到这个效果,并不是很明显,要刷新N次,IE 才有可能出现rs1&rs2上的实际配置,但这并不说明实验不成功。

时间: 2024-12-23 19:42:30

LB集群之LVS/DR的相关文章

linux系统构架 - LB集群之LVS介绍

LB 集群是 load balance 集群的简写,翻译成中文就是负载均衡集群.常用的负载均衡开源软件有 nginx.lvs.keepalived ,商业的硬件负载设备 F5.Netscale. LB 集群的架构如下图,原理也很简答,就是当用户的请求过来时,会直接发到分发器(Director Server)上,然后它把用户的请求根据预先设置好的算法,智能均衡地分发到后端的真正服务器(real server)上.如果不同的机器,可能用户请求到的数据不一样,为了避免这样的情况发生,所以用到了共享存储

LB集群之LVS/keepalived

在上一个实验的基础上LVS/DR (NTA,DR HA 都是用 nginx 服务操作的,省去了安装nginx安装配置) lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把httpd进程停掉,那么director照样会把请求转发过去,这样就造成了某些请求不正常.所以需要有一种机制用来检测real server的状态,这就是keepalived.它的作用除了可以检测rs状态外,还可以检测备用director的状态,也就是说keepalived(集HA+LB

linux cluster LB集群之LVS

Linux Cluster 类型分类: 负载均衡集群:Load balancing 高可用集群:High Avaiability 高性能集群:High Performance 及分布式系统 LB:LB的实现是在提供相同服务的多台服务器之前添加调度器即负载均衡集群 工作协议层来划分: tcp:根据请求报文中的目标地址和端口进行调度: 应用层:根据请求的内容进行调度,而且此种调度为"代理"方式: lvs: Linux Virtual Server,虚拟服务, 由章文嵩研发工作于layer4

linux集群之LVS DR模型简单实现

众所周知,LVS集群类型有NAT.DR和TUN,今天写这篇文章主要是看了马哥的视频,然后通过写博客的形式来回顾下自己还记得多少,写的不好,欢迎来喷! DR:集群节点跟director必须在同一个物理网络中: RIP可以使用公网地址,实现便捷的远程管理和监控: director仅负责处理入站请求,响应报文则由realserver直接送往客户端: 与NAT不用DR中的realserver不能将网关DIP: 不支持端口映射 实验环境: director centos6.7 eth0 192.168.1

linux系统构架 - LB集群之LVS的DR设置

在lvs的nat模式的基础上 1.清空ipvsadm规则 ipvsadm -C 查看 ipvsadm -ln 2.清空iptables规则 iptables -t nat -F 3.修改rs的网卡配置,修改回来网关 vi /etc/sysconfig/network-scripts/ifcfg-eth0 重启eth0 ifdown eth0; ifup eth0 4.dir网卡 ifdown eth1 dirIP:192.168.1.118  rs1IP:192.168.1.116 rs2IP:

LB集群之LVS介绍

负载均衡 前言: LB--load balance 比如说有1w/s并发(请求量),启用一台机器只是支持1k/s并发,那么如果支持1w并发则需要1k/s * 10并发的机器同时工作才可以满足. 开源软件:nginx 第7层应用级别.lvs 第4网络层.keepalived 商业硬件设置:F5.Netscale LVS架构: 负载均衡架构图 用户访问一个站点,通过互联网访问一个域名,域名解析后返回一个IP,然而这个IP相当于一个分发器.调度器Director,收到用户的请求(Director通过算

配置LVS/DR模式的LB集群

集群与存储 Day2 配置LVS/DR模式的LB集群1 配置网站服务器 51/521.1 配置VIP地址[[email protected] ~]# ifconfig lo:1 192.168.4.252/32[[email protected] ~]# ifconfig lo:1 1.2 修改网络接口运行参数/proc/sys/net/ipv4/conf[[email protected] conf]# echo 1 > lo/arp_ignore [[email protected] con

负载均衡集群介绍(LB集群)、 LVS介绍、LVS NAT模式、LVS DR模式

负载均衡集群介绍(LB集群) LB集群是load balance集群的简写,翻译成中文就是负载均衡集群 负载均衡的原理就是当用户的请求过来时,会直接发到分发器上,然后它把用户的请求根据预先设置好的算法,只能均衡的分发到后端真正的服务器上.如果不同的机器,可能用户请求到的数据不一样,为了避免这样的情况发生,所有用到了共享存储,这样保证所有的用户请求的数据是一样的 主流开源软件LVS.keepalived.haproxy.nginx等 其中LVS属于4层(网络OSI 7层模型),nginx属于7层,

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置 LB集群是locd balance集群的简称.翻译成中文是:负载均衡集群的意思:集群是一组相互独立的.通过高速网络互联的计算机相互之间构成一个组合,并以单一的系统的模式加以管理.LVS是Linux Virtual Server的简写,翻译中文是Linux虚拟服务器,是一个虚拟的服务器集群系统. 负载均衡集群:是为了企业提供更为实用,性价比更高的系统机构解决方案.负载均衡集群把用户的请求尽可能的平均分发到集群的各