集群LVS DR详解及配置

DR模型:

所有的集群节点在同一个物理设备上。所有设备都只需要一个物理网卡

每一个RS服务器都需要配置相同的VIP地址

客户端发送请求:数据报文原IP为CIP 目标IP为VIP 要让RS服务器不能对ARP广播解析进行响应

方法1:DR:

VIP:MAC(DVIP)Director绑定MAC地址

方法2:

arptables:在每个RS服务器上定义响应规则

arp_ignore 接收到ARP请求时的相应级别 默认0

0:只要本地配置有相应地址就给予响应

1:仅在请求的目标地址与请求到达的接口

方法3:

kernel parameter:

arp_announce 定义将自己地址向外通告时的通告级别的 默认0

0表示使用本机任何接口上的任何地址向外通告

1表示试图仅向目标网络通告与其网络匹配的地址

2表示仅将于本地接口上地址匹配的网络通告

Director:

[[email protected] ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth1

ONBOOT=no

setup 172.16.100.2 255.255.0.0 172.16.0.1

service network restart

ifconfig eth0:0 172.16.100.1/32 up

先配置RS1和RS2的 RIP最后配置VIP(桥接模式)

RS1:

setup 172.16.100.7 255.255.0.0 172.16.0.1

service network restart

RS2:

setup 172.16.100.8 255.255.0.0 172.16.0.1

service network restart

RS:

[[email protected] ~]# cd /proc/sys/net/ipv4/conf

[[email protected] conf]# ls all

[[email protected] conf]# ls lo

[[email protected] conf]# ls eth0

accept_local         log_martians

accept_redirects     mc_forwarding

accept_source_route  medium_id

arp_accept           promote_secondaries

arp_announce         proxy_arp

arp_filter           proxy_arp_pvlan

arp_ignore           route_localnet

arp_notify           rp_filter

bootp_relay          secure_redirects

disable_policy       send_redirects

disable_xfrm         shared_media

force_igmp_version   src_valid_mark

forwarding           tag

all需要配置,lo和eth0只需要配置其中一个即可

[[email protected] conf]# sysctl  -w  net.ipv4.conf.eth0.arp_announce=2

net.ipv4.conf.eth0.arp_announce = 2

[[email protected] conf]# cat  eth0/arp_announce

2

[[email protected] conf]# sysctl  -w  net.ipv4.conf.all.arp_announce=2

net.ipv4.conf.all.arp_announce = 2

[[email protected] conf]# cat  all/arp_announce

2

或者使用echo 1 > /proc/sys/net/ipv4/conf/eth0/arp_ignore

改完以后可以配置vip了

ifconfig lo:0 172.16.100.1/32 up

检验是否生效ping VIP地址 然后使用arp-a查看mac看是否是Director响应的

此时需要保证RS的响应报文使用VIP作为原地址,而不是RIP

RS:

ifcongig lo:0 down

ifconfig lo:0 172.16.100.1 broadcast 172.16.100.1 netmask 255.255.255.255 up

添加路由

route add -host 172.16.100.1 dev lo:0 以lo:0的地址作为出发的源地址

Director:

route add -host 172.16.100.1 dev eth0:0

检查RS httpd服务是否正常

然后配置ipvsadm

ipvsadm -A -t 172.16.100.1:80 -s wlc

ipvsadm -a -t 172.16.100.1:80 -r 172.16.100.7 -g -w 2

ipvsadm -a -t 172.16.100.1:80 -r 172.16.100.8 -g -w 9

时间: 2024-11-05 16:50:42

集群LVS DR详解及配置的相关文章

Linux集群——LVS类型详解

LB :调度算法 :rr wrr 分类 :Hardware F5 ,BIG IPCitrix ,NetscalerA10Software四层LVS七层 反向代理nginx http,smtp,pop3,imaphaproxy http,tcp(mysql,smtp) LVS :Linux Virtual Serverdirector : 调度器realserver lvs与iptables 不能同时使用LVSipvsadm :管理集群服务的命令行工具ipvs :CIP :Client IPVIP

高可用,多路冗余GFS2集群文件系统搭建详解

2014.06 标签:GFS2 multipath 集群文件系统 cmirror 实验拓扑图: 实验原理: 实验目的:通过RHCS集群套件搭建GFS2集群文件系统,保证不同节点能够同时对GFS2集群文件系统进行读取和写入,其次通过multipath实现node和FC,FC和Share Storage之间的多路冗余,最后实现存储的mirror复制达到高可用. GFS2:全局文件系统第二版,GFS2是应用最广泛的集群文件系统.它是由红帽公司开发出来的,允许所有集群节点并行访问.元数据通常会保存在共享

t持久化与集群部署开发详解

Quartz.net持久化与集群部署开发详解 序言 我前边有几篇文章有介绍过quartz的基本使用语法与类库.但是他的执行计划都是被写在本地的xml文件中.无法做集群部署,我让它看起来脆弱不堪,那是我的罪过. 但是quart.net是经过许多大项目的锤炼,走到啦今天,支持集群高可用的开发方案那是一定的,今天我就给小结下我的quartz.net开发升级过程. Quartz.net的数据库表结构 如果支持集群与持久化,单靠本机的内存和xml来保存计算任务调度的各种状态值,可想而知,是困难的.所以支持

Nginx搭建集群服务器过程详解

Nginx+Apache+PHP+MySQL搭建集群服务器过程详解 概念介绍在本文未能提及,请自助上网科普,直接进入过程详解: 集群架构图大致如下: 一.软件下载 序号 软件名称 软件版本 下载地址 1 操作系统 Windows Server 2008 Enterprise 64bit 2 Php php-5.6.19-Win32-VC11-x64 Thread Safe(由于HTTP服务器用的apache) http://windows.php.net/downloads/releases/p

阿里巴巴 Sigma 调度和集群管理系统架构详解

阿里巴巴 Sigma 调度和集群管理系统架构详解 划重点 阿里巴巴 9 年双 11 经历下来,交易额增长了 280 倍.交易峰值增长 800 多倍.系统数呈现爆发式增长.系统在支撑双 11 过程中的复杂度和支撑难度以指数级形式上升.双 11 峰值的本质是用有限的成本最大化提升用户体验和集群吞吐能力,用合理的代价解决峰值.本文将从阿里巴巴统一调度体系.混部架构.云化架构三个方面详解阿里是如何支撑如此庞大的系统. 统一调度体系 始于 2011 年建设的 Sigma 是服务阿里巴巴在线业务的调度系统,

Kafka单机、集群模式安装详解(二)

本文环境如下: 操作系统:CentOS 6 32位 JDK版本:1.8.0_77 32位 Kafka版本:0.9.0.1(Scala 2.11) 接上篇 Kafka单机.集群模式安装详解(一) 6. 单节点多Broker模式 Kafka使用可以有多种模式,包括单节点单Broker,单节点多Broker,多节点多Broker. 这里我们简单区分一下: 单节点单Broker:在单台机子上,启动了一个Kafka实例(上一篇就是这种模式). 单节点多Broker:在同一台机子上开启多个Kafka(类似H

大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 图文详解

引言 在之前的大数据学习系列中,搭建了Hadoop+Spark+HBase+Hive 环境以及一些测试.其实要说的话,我开始学习大数据的时候,搭建的就是集群,并不是单机模式和伪分布式.至于为什么先写单机的搭建,是因为作为个人学习的话,单机已足以,好吧,说实话是自己的电脑不行,使用虚拟机实在太卡了... 整个的集群搭建是在公司的测试服务搭建的,在搭建的时候遇到各种各样的坑,当然也收获颇多.在成功搭建大数据集群之后,零零散散的做了写笔记,然后重新将这些笔记整理了下来.于是就有了本篇博文. 其实我在搭

LVS负载均衡集群服务搭建详解(二)

lvs-nat模型构建 1.lvs-nat模型示意图 本次构建的lvs-nat模型的示意图如下,其中所有的服务器和测试客户端均使用VMware虚拟机模拟,所使用的CentOS 7 VS内核都支持ipvs功能,且安装ipvsadm控制书写lvs规则工具. RS端两台服务器为httpd服务器做请求的负载均衡. 注意: 1) 客户端可以使用Windows上的浏览器,会后缓存影响结果,所以采用CentOS上的curl命令请求http协议显示更加直观 2) DIP上不能配置iptables规则 2.VS网

LVS负载均衡集群服务搭建详解

一.LVS概述 1.LVS:Linux Virtual Server 四层交换(路由):根据请求报文的目标IP和目标PORT将其转发至后端主机集群中的某台服务器(根据调度算法): 不能够实现应用层的负载均衡 lvs(又称ipvs),基于内核中的netfilter实现: PREROUTING--> INPUT OUTPUT--> POSTROUTING PREROUTING--> FORWARD --> POSTROUTING 2.lvs集群术语: vs:Virtual  Serve