lvs realserver 配置VIP

# $# 表示提供到shell脚本或者函数的参数总数;
# 1表示只有一个参数。

#/bin/bash
#file: tun_RS.sh

if [ $# -ne 1 ];
then
echo “usage: $0 virtualIP”
echo “such as : $0 172.19.58.200″
exit 0
fi

VIP=$1

# RS 无需转发
echo “0” >/proc/sys/net/ipv4/ip_forward

# modify eth0 mtu to 1440 for TCP server
/sbin/ifconfig eth0 mtu 1440

# 配置tunl0
/sbin/ifconfig tunl0 up
/sbin/ifconfig tunl0 ${VIP} broadcast ${VIP} netmask 0xffffffff up
/sbin/route add -host ${VIP} dev tunl0

# 解决arp的问题
echo 1 > /proc/sys/net/ipv4/conf/tunl0/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/tunl0/arp_announce
echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce

# 解决rp_filter的问题
echo 0 > /proc/sys/net/ipv4/conf/tunl0/rp_filter
echo 0 > /proc/sys/net/ipv4/conf/all/rp_filter
# end of tun_RS.sh

时间: 2024-10-07 05:29:53

lvs realserver 配置VIP的相关文章

lvs后端realserver的vip管理脚本lvs-realsvr.sh

#!/bin/bash #  # 2015/3/27 # lvs real server # # chkconfig:   - 85 15 # description:  control vip on lvs realserver  # Source function library. . /etc/rc.d/init.d/functions # Source networking configuration. . /etc/sysconfig/network # Check that netw

一些LVS实验配置、工具和方案

最近做了一些LVS配置和方案的验证实验,将过程中用到的一些配置.工具和具体的解决方案记录一下.使用DR模式.验证一种不中断业务的RealServer升级或者重启方案. 网络规划: 节点 IP地址 ceph1(RealServer1) 172.16.0.114 ceph2(RealServer2) 172.16.0.115 ceph4(DirectServer) 172.16.0.113 客户端:Win 8.1 172.16.0.100 一.配置 DirectServer: vip=172.16.

lvs 简单配置

环境描述:本文在配置LVS时使用三台linux,虚拟VIP:192.168.0.254 一台做Directorserver(192.168.0.1) 两台做realserver(192.168.0.2,192.168.0.3) Load Balancer: 192.168.0.1 Real Server 1: 192.168.0.2 Real Server 2: 192.168.0.3     软件 ipvsadm-1.24.tar.gz:   tar zxvf ipvsadm-1.24.tar

lvs+keepalived配置

一.环境 lvs-keep-m: 192.168.3.24 lvs-keep-s: 192.168.3.25 RS1: 192.168.3.26 RS2: 192.168.3.27 VIP: 192.168.3.28 二.在所有节点都配置ntp同步时间 [[email protected] ~]# ntpdate asia.pool.ntp.org [[email protected] ~]# hwclock -w 三.RS1和RS2配置httpd服务,以及VIP RS1操作 [[email p

安装LVS安装LVS和配置LVS的工作比较繁杂

安装LVS安装LVS和配置LVS的工作比较繁杂,读者在配置的过程中需要非常细心和耐心.在本节我们将对其进行详细地介绍.主要包括如下几个核心步骤:1.获取支持LVS的内核源代码如果读者需要使用LVS,需要下载2.4.23以后版本的内核源代码.下载地址为http://www.kerner.org.目前主流的Linux内核已经支持LVS,只需要直接使用,不需要进行内核的下载和更新工作.2.用户配置工具ipvsadm该软件的下载地址为:http://www.linuxvirtualserver.org/

利用lvs keepalived配置redis高可用及负载均衡

需求 我们用ES做日志服务,架构是 上游数据来源=>redis=>logstash=>ES redis目前还是单点, 没有做高可用, 现在数据量越来越多, 如果下游消费不出问题还好, redis里面数据来了就走,但是下游一旦出问题, 分给redis的内存半小时就撑满了. 看到redis3.0 beta版本已经提供了集群功能, 但是需要client以集群模式接入, 我们这么多上游用户, 不太可能统一要求他们改造. 公司也有硬件的LB, 同事在E公司的时候就是用的硬件LB. 但接入还要申请,

Keepalived + LVS DR 配置 终版

Keepalived + LVS DR 配置 终版Keepalived负载均衡配置缺点LVS如果分发器dir宕机全部失效 dir做个高可用可避免,如果一个rs宕机,也会把请求发到rs上,无法自动识别完整架构需要两台服务器(角色为dir) 分别安装Keepalived软件,目的实现高可用,但Keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台KeepalivedKeepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置

CentOS Linux 负载均衡高可用WEB集群之LVS+Keepalived配置 LB集群是locd balance集群的简称.翻译成中文是:负载均衡集群的意思:集群是一组相互独立的.通过高速网络互联的计算机相互之间构成一个组合,并以单一的系统的模式加以管理.LVS是Linux Virtual Server的简写,翻译中文是Linux虚拟服务器,是一个虚拟的服务器集群系统. 负载均衡集群:是为了企业提供更为实用,性价比更高的系统机构解决方案.负载均衡集群把用户的请求尽可能的平均分发到集群的各

LVS DR 配置

LVS DR 配置 架构图 架构说明: Vmware上实现,一共需要3台虚拟机.物理机模拟客户端.配置RR轮询的调度方法以便显示效果   Director主机配置 Director地址配置: VIP地址: 192.168.61.100 DIP地址: 192.168.93.133 ifonfig eth0:0 192.168.61.100 netmask255.255.255.255 broadcast 192.168.61.100 up route add -host 192.168.61.10