一步一步搭建LVS-DR模型LB集群(一)

LVS:全名linux virtual server,是一款使用非常多的负载均衡集群软件,作为工作在tcp四层的软件,使得它能够调度非常多的应用,并且性能比起应用层的负载均衡软件更加好。

准备实验环境:

vmware workstation 10.0

OS:                centos 6.4

实验拓扑如下:

Director的配置

配置dip和vip
ifconfig eth0 192.168.1.115/24 up
ifconfig eth0:0 192.168.1.110/24 up
关闭iptables,因为lvs不能和iptables通用
server iptables stop
配置本地光盘yum源安装ipvsadm
vim /etc/yum.repos.d/cdrom.repo
    name=Centos 6.4
    baseurl=file:///mnt
    enabled=1
    gpgcheck=0
挂载光盘至/mnt目录
mount /dev/cdrom /mnt
安装ipvsadm
yum install ipvsadm

ipvsadmin的命令使用
        添加一个rr的集群服务
        # ipvsadm -A -t 192.168.1.110:80 -s rr
        rr表示调度算法

        添加集群服务中的RS
        # ipvsadm -a -t 192.168.1.110:80 -r 192.168.1.116 -g
        # ipvsadm -a -t 192.168.1.110:80 -r 192.168.1.117 -g
        -g表示DR模型
测试
        在浏览器中打开
        http://192.168.1.110/index.html

查看集群配置
ipvsadm -L -n
查看当前连接数
ipvsadm -L -n -c
RealServer的配置(2个RS的配置一样 除了eth0的ip地址)

配置ip地址
ifconfig eth0 192.168.1.116/24 up
为了使RS的虚拟ip的mac地址不会向外通告,需要先设置linux的内核参数
echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
内核参数解释
        arp_ignore: 定义接收到ARP请求时的响应级别;
            0:只要本地配置的有相应地址,就给予响应;
            1:仅在请求的目标地址配置请求到达的接口上的时候,才给予响应;

        arp_announce:定义将自己地址向外通告时的通告级别;
            0:将本地任何接口上的任何地址向外通告;
            1:试图仅向目标网络通告与其网络匹配的地址;
            2:仅向与本地接口上地址匹配的网络进行通告;
配置vip
/sbin/ifconfig lo:0 192.168.1.110 broadcast 192.168.1.110 netmask 255.255.255.255 up
以上广播地址确保VIP不会向外广播
/sbin/route add -host 192.168.1.110 dev lo:0
此主机路由表示目标地址是lo上面的地址,出去的时候以lo:0为其源地址

因为提供web集群,所以安装httpd
yum install httpd
关闭selinux 
setenfore 0
测试 httpd是否安装正常
echo "RealServer 1" > /var/www/html
时间: 2024-10-06 17:08:42

一步一步搭建LVS-DR模型LB集群(一)的相关文章

RHEL6 搭建LVS/DR 负载均衡集群 案例

搭建LVS/DR 负载均衡集群 案例 实验拓扑图: 操作流程: Director Server :        192.168.4.50 pc50 安装并启用ipvsadm 配置辅助IP地址 创建虚拟服务器,向虚拟服务器中加入节点 Real Server:        192.168.4.51 pc51        192.168.4.52 pc52 配置WEB 服务器 配置辅助IP地址,调整内核参数 Clinet :192.168.4.253 pc253 连接虚拟服务器测试 环境准备:

LVS(DR)+Keepalived 服务器集群

LVS(DR)+Keepalived 服务器集群 LVS轮询服务器 可以保障当一个网站服务器宕掉后,仍能正常访问 Keepalived高可用服务器 可以保障当LVS宕掉后,仍能正常工作 搭建服务器集群 192.168.4.50 LVS+Keepalived VIP 192.168.4.253 192.168.4.53 192.168.4.51 网站服务器 192.168.4.52 [50:53] #yum -y install keepalived ipvsadm vim /etc/keepal

LVS DR 负载均衡集群

LVS DR 负载均衡集群 试验准备:五台主机ABCDE,主机ABCDE均为单网卡,IP地址分别为192.168.10.2,192.168.10.3,192.168.10.4,192.168.10.5,192.168.10.6.主机A作为内网客户端,主机B负载均衡调度器,主机C和主机D作为网站服务器,主机E作为共享存储,均清除防火墙和SELINUX.操作系统均为RHELx86_64,为最小化安装. 主机A操作 #vim /etc/sysconfig/network-scripts/ifcfg-e

一步一步搭建LVS-DR模型LB集群(二)

LVS的持久连接: 持久连接即是不考虑LVS的转发方法,确保所有来自同一个用户的连接转发到同一个RealServer上 -p  //表示此连接为持久连接 N  //表示维持此持久连接的时间.默认6分钟. 持久连接的类型: 1.PCC(persistent client connector,持久用户连接)同一个用户所有的请求在超时范围之内都被定位到同一个RealServer上,这个时候在指定端口的时候使用的是0端口,就是所有的请求都转发出去.2.PPC(persistent port connec

Centos7搭建lvs+keepalive负载均衡集群

keepalived简介 keepalived是分布式部署解决系统高可用的软件,结合lvs(LinuxVirtual Server)使用,解决单机宕机的问题. keepalived是一个基于VRRP协议来实现IPVS的高可用的解决方案.对于LVS负载均衡来说,如果前端的调度器direct发生故障,则后端的realserver是无法接受请求并响应的.因此,保证前端direct的高可用性是非常关键的,否则后端的服务器是无法进行服务的.而我们的keepalived就可以用来解决单点故障(如LVS的前端

一步一步搭建LVS-DR模型LB集群(三)

在lvs服务器上运行的脚本lvs.sh,绑定VIP地址到LVS-MASTER上,并设定LVS工作模式等 #!/bin/bash SNS_VIP=192.168.1.108 SNS_RIP1=192.168.1.106 SNS_RIP2=192.168.1.107 ./etc/rc.d/init.d/functions logger $0 called with $1 case "$1" in start) # set squid vip /sbin/ipvsadm-set 30 5 6

搭建LVS+Keepalived负载均衡集群

这两天学习了LVS+Keepalived负载均衡的搭建.网上的教程非常多,可是动起手来遇到不少问题. 如今把自己的搭建过程以及遇到的一些问题给分享下. 硬件环境: Macbook 8G内存.250G SSD,双核 软件环境: 因为资源有限.搭建了4个虚拟机. 虚拟机 [[email protected] work]# uname -a Linux rs-1 2.6.18-238.el5 #1 SMP Thu Jan 13 15:51:15 EST 2011 x86_64 x86_64 x86_6

LVS集群DR、NAT模型配置, 及使用ldirectord完成LVS DR模型集群搭建

首先我们有三台主机:其中172.16.192.168作为前台主机:另外172.16.254.18和172.16.254.105作为后端主机,作为测试分别运行有web服务,并测试可用,如下图. 一.LVS NAT模型集群配置实验 1.首先在后端Real Server上设置默认网关,执行前端Virtual Server 2.在前端Virtual Server上开启路由转发功能 3.配置前端LVS集群 4.测试 总结:经过初步测试,我们可以看出已经可以实现rr轮询调度,修改相应的调度算法则可以实现不同

部署AlwaysOn第一步:搭建Windows服务器故障转移集群

在Windows Server 2012 R2 DataCenter 环境中搭建集群之前,首先要对Windows服务器故障转移集群(Windows Server Failover Cluster,简称WSFC)有基本的了解.WSFC必须部署在域管理环境中,由多台服务器组成,每台服务器称作一个"结点"(Node),每个结点上都运行了Windows服务器故障转移集群服务,整个集群系统允许部分结点掉线.故障或损坏而不影响整个系统的正常运作.集群自动检测结点的健康状态,一旦活跃结点发生异常,变