一些LVS实验配置、工具和方案

最近做了一些LVS配置和方案的验证实验,将过程中用到的一些配置、工具和具体的解决方案记录一下。使用DR模式。验证一种不中断业务的RealServer升级或者重启方案。

网络规划:

节点 IP地址
ceph1(RealServer1) 172.16.0.114
ceph2(RealServer2) 172.16.0.115
ceph4(DirectServer) 172.16.0.113
客户端:Win 8.1 172.16.0.100

一、配置

DirectServer:

vip=172.16.0.113
r1ip=172.16.0.114
r2ip=172.16.0.115
port=$1
if [ -z "$port" ]
then
        port=2100
fi

ipvsadm -C
ipvsadm -A -t ${vip}:${port} -s wrr
ipvsadm -a -t ${vip}:${port} -r ${r1ip}:${port} -g
ipvsadm -a -t ${vip}:${port} -r ${r2ip}:${port} -g

RealServer:

#!/bin/sh
VIP=172.16.0.113
BROADCAST=172.16.0.255 #vip‘s broadcast

Usage ()
{
        echo "Usage:`basename $0` (start|stop)"
exit 1
}

if [ $# -ne 1 ];then
        Usage
fi

case $1 in
start)
        echo "reparing for Real Server"
        echo "1" >;/proc/sys/net/ipv4/conf/lo/arp_ignore
        echo "2" >;/proc/sys/net/ipv4/conf/lo/arp_announce
        echo "1" >;/proc/sys/net/ipv4/conf/all/arp_ignore
        echo "2" >;/proc/sys/net/ipv4/conf/all/arp_announce
        /sbin/ifconfig lo:0 $VIP netmask 255.255.255.255 broadcast $BROADCAST up
        /sbin/route add -host $VIP dev lo:0
;;
stop)
        /sbin/ifconfig lo:0 down
        echo "0" >;/proc/sys/net/ipv4/conf/lo/arp_ignore
        echo "0" >;/proc/sys/net/ipv4/conf/lo/arp_announce
        echo "0" >;/proc/sys/net/ipv4/conf/all/arp_ignore
        echo "0" >;/proc/sys/net/ipv4/conf/all/arp_announce
        echo "stop Real Server"
;;
*)
        Usage

esac

上述配置是标准的DR模式的配置。

二、工具

RealServer上面提供可以监听固定端口,并接受客户端从TCP连接发送过来的数据的TCP Server服务,将接收到的数据打印到屏幕,并回复当前节点信息给客户端,让客户端能够区分具体的服务是由哪个RealServer提供的。

服务的代码如下:

package com;

import java.net.ServerSocket;
import java.net.Socket;
import java.io.IOException;

publicclass Server
{

publicstaticvoid main(String[] args) throws IOException
    {

if (args.length < 1)
        {
            System.out.println("arguments error!\nusage: java -jar tcpser.jar server port");
            System.exit(0);
        }

int serverport = Integer.parseInt(args[0]);

        System.out.println("==============TCP SERVER==============");

        ServerSocket server = null;
try
        {
            server = new ServerSocket(serverport);
            System.out.println("Listening Port is " + server.getLocalPort() + "...");
while (true)
            {
                Socket connectedCli = server.accept();
                System.out.println("a new client: " + connectedCli.getInetAddress() + ":" + connectedCli.getPort());
new DataProcesser(connectedCli).start();
            }
        }
catch (Exception e)
        {
            e.printStackTrace();
        }
finally
        {
if (server != null)
            {
                server.close();
            }
        }
    }
}
package com;

import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.InputStreamReader;
import java.io.OutputStreamWriter;
import java.net.InetAddress;
import java.net.Socket;

publicclass DataProcesser extends Thread
{
private Socket cli;

public DataProcesser(Socket clientsocket)
    {
        cli = clientsocket;
    }

    @Override
publicvoid run()
    {
        BufferedReader reader = null;
        BufferedWriter writer = null;
try
        {
            reader = new BufferedReader(new InputStreamReader(cli.getInputStream()));
            writer = new BufferedWriter(new OutputStreamWriter(cli.getOutputStream()));
while (true)
            {
                String receivedString = reader.readLine();
if (receivedString != null)
                {
                    System.out.println(cli.getInetAddress() + ":" + cli.getPort() + " " + receivedString);
                    String hostname = InetAddress.getLocalHost().getHostName();
                    writer.write("it‘s from the host: " + hostname);
                    writer.write("\n");
                    writer.flush();
                }
if ("shutdown".equals(receivedString))
                {
break;
                }
            }

        }
catch (Exception e)
        {
            e.printStackTrace();
        }
finally
        {
if (reader != null)
            {
try
                {
                    reader.close();
                }
catch (Exception e2)
                {
                    e2.printStackTrace();
                }
            }

if (cli != null)
            {
try
                {
                    cli.close();
                }
catch (Exception e2)
                {
                    e2.printStackTrace();
                }
            }

        }
    }

}

将上面的服务端代码导出为jar包:server.jar,部署到两台RealServer上面:

启动信息如下:

[email protected]:~# java -jar server.jar 2100
==============TCP SERVER==============
Listening Port is 2100...
a new client: /172.16.0.100:49314

a new client: /172.16.0.100:49316

客户端工具:

客户端工具直接使用开源的sockettest工具:http://sourceforge.net/projects/sockettest/

三、验证RealServer的一种安全退出机制

当IPVS正在接受业务时,IPVS将请求按照指定的规则分发给两个节点。当需要重启某一个业务节点时,会存在两个问题:1、正在执行的业务会被中断,如:TCP上面正在做数据交互会中断;2、如何确保不再有新的业务下发到需要重启的节点上面,如果采用LVS服务器将业务节点踢出,那么也会中断已经接入的请求。

其中问题1,一般来说需要服务本身去做判断,判断业务全部完成后,再做下电重启等处理。

对于问题2,需要寻求一种安全的移除业务节点的方案。既不能影响已经接入点业务请求,又不能让新的业务再下发到该节点上面。考虑使用带权重的轮询方式,将某个业务节点的权重设置为0,这样该节点就不会再有业务。但是节点并没有从lvs的配置中删除掉。因此已有的业务不会受影响。

结合客户端工具,和服务端的长连接支持方式,最终很轻松即可验证上述方案,验证步骤:

1、配置好DirectServer,两条分发记录到ceph1和ceph2节点;
2、配置RealServer,启动TCP Server服务;
3、在Windows上面使用sockettest工具分别与LVS的VIP建立长连接;

4、在LVS上面修改配置:


ipvsadm -e -t 172.16.0.113:2100 -r 172.16.0.114:2100 -w 0

5、观察之前已经跟114节点建立的连接是否断开,是否还能继续发送和接受数据。验证结果为:连接不会断开,该连接还能继续处理数据。
6、DirectServer接受到的新的请求,是否还是会转给114节点。验证结果为:0权重生效,所有的业务都只发送到另外一个业务节点上面。
7、到此整个验证结束。

对于RealServer维护期间,需要精细化的维护业务不受损,可以使用如上方案来实现。

时间: 2024-12-12 19:37:51

一些LVS实验配置、工具和方案的相关文章

物联网框架ServerSuperIO(SSIO)更新、以及增加宿主程序和配置工具,详细介绍

一.更新内容 1.修改*Server类,以及承继关系.2.增加IRunDevice的IServerProvider接口继承.3.修复增加COM设备驱动可能造成的异常.4.修复网络发送数据可能引发的异常.5.完善协议驱动器. 6.修改协议驱动接口.7.修改协议命令接口.8.修复协议命令,抽象基类情况下的异常BUG. 9.增加协议接口GetPackageLength,数据交互更灵活.10.修复一些BUG.11.优化代码. 二.GetPackageLength接口的使用 这个接口主要的使用场景是:当协

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置 LB集群是locd balance集群的简称.翻译成中文是:负载均衡集群的意思:集群是一组相互独立的.通过高速网络互联的计算机相互之间构成一个组合,并以单一的系统的模式加以管理.LVS是Linux Virtual Server的简写,翻译中文是Linux虚拟服务器,是一个虚拟的服务器集群系统. 负载均衡集群:是为了企业提供更为实用,性价比更高的系统机构解决方案.负载均衡集群把用户的请求尽可能的平均分发到集群的各

集群配置工具之conga:web配置简易RHCS

RHCS,红帽的集群套件,至于原理性能什么的我这里也不多说了,很复杂也很无趣,而且网上一百遍介绍RHCS的文章,通常也是只是在用同一种方式同一种语言同一种思路说同一件事,有的甚至拼音的错误也是一样的,很无聊,大家有兴趣可以自己搜.好了,吐槽完毕,开始今天的实验! 准备: 一台控制台(node1.xue.com),需要安装luci和ansible; 三台做集群,及被控制机(node2.xue.com.node3.xue.com.node4.xue.com),需要安装ricci: 配置好yum源:

实例:LVS+Keepalived配置LVS的高可用

LVS+Keepalived配置LVS的高可用 我们这里LVS-DR模型的高可用集群: 实验环境:     vm1 LVS-DR1:              eth0 172.16.3.2/16              VIP :eth0:0 172.16.3.88              vm2 LVS-DR2:             eth0 172.16.3.3/16     vm3 Server-web1             RS1: eth0 172.16.3.1/16  

LVS + Keepalived 配置详解

LVS+Keepalived 配置 我们通过LVS-DR-MASTER,LVS-DR-BACKUP作为LVS负载均衡调度器,并且两者之间通过keepalived来两者之间的HA.keepalived本身就是为了LVS为开发的,所以说我们通过keepalived来进行LVS的配置就显得十分的方便.而且keepalived是直接操作ip_vs不用通过ipvsadm,所以更加方便. 实验拓扑图 LVS节点1配置: # yum install popt-devel openssl openssl-dev

安装LVS安装LVS和配置LVS的工作比较繁杂

安装LVS安装LVS和配置LVS的工作比较繁杂,读者在配置的过程中需要非常细心和耐心.在本节我们将对其进行详细地介绍.主要包括如下几个核心步骤:1.获取支持LVS的内核源代码如果读者需要使用LVS,需要下载2.4.23以后版本的内核源代码.下载地址为http://www.kerner.org.目前主流的Linux内核已经支持LVS,只需要直接使用,不需要进行内核的下载和更新工作.2.用户配置工具ipvsadm该软件的下载地址为:http://www.linuxvirtualserver.org/

利用lvs keepalived配置redis高可用及负载均衡

需求 我们用ES做日志服务,架构是 上游数据来源=>redis=>logstash=>ES redis目前还是单点, 没有做高可用, 现在数据量越来越多, 如果下游消费不出问题还好, redis里面数据来了就走,但是下游一旦出问题, 分给redis的内存半小时就撑满了. 看到redis3.0 beta版本已经提供了集群功能, 但是需要client以集群模式接入, 我们这么多上游用户, 不太可能统一要求他们改造. 公司也有硬件的LB, 同事在E公司的时候就是用的硬件LB. 但接入还要申请,

Keepalived + LVS DR 配置 终版

Keepalived + LVS DR 配置 终版Keepalived负载均衡配置缺点LVS如果分发器dir宕机全部失效 dir做个高可用可避免,如果一个rs宕机,也会把请求发到rs上,无法自动识别完整架构需要两台服务器(角色为dir) 分别安装Keepalived软件,目的实现高可用,但Keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台KeepalivedKeepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚

浏览器配置工具.bat

在Web安装的ActiveX控件,默认安装在C:\WINDOWS\Downloaded Program Files目录下,但是有时候由于Internet Explorer的安全设置,会阻止ActiveX控件的安装下载,于是有了 浏览器配置工具.bat,在启动IE之前先对其安全选择进行设置. C++ Code 1234567891011121314151617181920212223242526272829303132333435   浏览器配置工具.bat @rem ********* set