lvs

实验环境:

主机1:172.25.46.1

主机2:172.25.46.2

主机3:172.25.46.3

主机1:

# yum install -y ipvsadm

# ip addr add 172.25.46.100/24 dev eth1

eth1:

inet 172.25.46.100/24 scope global secondary eth1

加载 rule

# ipvsadm -A -t 172.25.46.100:80 -s rr

# ipvsadm -a -t 172.25.46.100:80 -r 172.25.46.3:80 -g

# ipvsadm -a -t 172.25.46.100:80 -r 172.25.46.2:80 -g

# ipvsadm -Ln

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port           Forward Weight ActiveConn InActConn

TCP  172.25.46.100:80 rr

-> 172.25.46.2:80                Route   1      0          0

-> 172.25.46.3:80                Route   1      0          0

将以上配置保存至/etc/sysconfig/ipvsadm文件-保存 rule

# /etc/init.d/ipvsadm save

# cat /etc/sysconfig/ipvsadm

-A -t 172.25.46.100:80 -s rr

-a -t 172.25.46.100:80 -r 172.25.46.2:80 -g -w 1

-a -t 172.25.46.100:80 -r 172.25.46.3:80 -g -w 1

# /etc/init.d/ipvsadm start

主机2:

# yum install -y httpd

# cd /var/www/html/

# ls

index.html

# cat index.html

server2.example.com

# /etc/init.d/httpd start

# netstat -antlp

tcp        0      0 :::22                       :::*                        LISTEN      1125/sshd

# yum install -y arptables_jf

# arptables -A IN -d 172.25.46.100 -j DROP

# ip addr add 172.25.46.100/32 dev eth0

# ip addr show

eth0:

inet 172.25.46.100/32 scope global eth0

# arptables -A OUT -s 172.25.46.100 -j mangle --mangle-ip-s 172.25.46.2

# /etc/init.d/arptables_jf save

# arptables -nL

Chain IN (policy ACCEPT)

target     source-ip            destination-ip       source-hw          destination-hw     hlen   op         hrd        pro

0.0.0.0/0            172.25.46.100        00/00              00/00              any    0000/0000  0000/0000  0000/0000

Chain OUT (policy ACCEPT)

target     source-ip            destination-ip       source-hw          destination-hw     hlen   op         hrd        pro

mangle     172.25.46.100        0.0.0.0/0            00/00              00/00              any    0000/0000  0000/0000  0000/0000 --mangle-ip-s 172.25.46.2

Chain FORWARD (policy ACCEPT)

target     source-ip            destination-ip       source-hw          destination-hw     hlen   op         hrd        pro

主机3:

# yum install -y httpd

# cd /var/www/html/

# ls

index.html

# cat index.html

server3.example.com

# /etc/init.d/httpd start

# netstat -antlp

tcp        0      0 :::80                       :::*                        LISTEN      1479/httpd

# yum install -y arptables_jf

# arptables -A IN -d 172.25.46.100 -j DROP

# arptables -A OUT -s 172.25.46.100 -j mangle --mangle-ip-s 172.25.46.3

# arptables -nL

Chain IN (policy ACCEPT)

target     source-ip            destination-ip       source-hw          destination-hw     hlen   op         hrd        pro

DROP       0.0.0.0/0            172.25.46.100        00/00              00/00              any    0000/0000  0000/0000  0000/0000

Chain OUT (policy ACCEPT)

target     source-ip            destination-ip       source-hw          destination-hw     hlen   op         hrd        pro

mangle     172.25.46.100        0.0.0.0/0            00/00              00/00              any    0000/0000  0000/0000  0000/0000 --mangle-ip-s 172.25.46.3

Chain FORWARD (policy ACCEPT)

target     source-ip            destination-ip       source-hw          destination-hw     hlen   op         hrd        pro

# /etc/init.d/arptables_jf save

---------浏览器172.25.46.100,页面在server2.example.com和servre3.example.com之间转换

访问cheungssh时:http://ip/cheungssh

http://域名/cheungssh

时间: 2024-10-20 11:00:07

lvs的相关文章

使用LVS实现负载均衡原理及安装配置详解

转:http://www.cnblogs.com/liwei0526vip/p/6370103.html 使用LVS实现负载均衡原理及安装配置详解 负载均衡集群是 load balance 集群的简写,翻译成中文就是负载均衡集群.常用的负载均衡开源软件有nginx.lvs.haproxy,商业的硬件负载均衡设备F5.Netscale.这里主要是学习 LVS 并对其进行了详细的总结记录. 一.负载均衡LVS基本介绍 LB集群的架构和原理很简单,就是当用户的请求过来时,会直接分发到Director

heartbeat+LVS

####heartbeat简介####Heartbeat 项目是 Linux-HA 工程的一个组成部分,它实现了一个高可用集群系统.心跳服务和集群通信是高可用集群的两个关键组件,在 Heartbeat 项目里,由 heartbeat 模块实现了这两个功能.这个集群方案是利用第三方软件搭建的,要比RedHat自带的集群软件在功能上简化一些,但是搭建起来非常的方便.而且是一种快速解决方案.heartbeat的高可用集群采用的通信方式是udp协议和串口通信,而且heartbeat插件技术实现了集群间的

LVS集群之工作原理

  首先我们要了解LVS的工作机制: LVS里Director本身不响应请求,只是接受转发请求到后方,Realservers才是后台真正响应请求. LVS 工作原理基本类似DNAT,又不完全相像,它是一种四层交换,默认情况下通过用户请求的地址和端口来判断用户的请求,从而转发到后台真正提供服务的主机,而判断这种请求的是通过套接字来实现,所以四层就可以实现. 而且这个转发的过程对用户而言是透明的(简单的讲,就是用户访问DR的IP,而DR转发给RSS,而用户不知道这个过程) LVS的工作模式: 1.D

centos 7 LVS+keepalived实现nginx的高可用以及负载均衡

一.准备工作:关闭防火墙,selinux以免对实验结果造成影响,准备虚机,设置IP地址.主机名 hostname:Nginx01 IP:192.168.1.87 Role:Nginx Server hostname:Nginx02 IP: 192.168.1.88 Role:Nginx Server hostname:LVS01 IP: 192.168.1.89 Role:LVS+Keepalived hostname:LVS02 IP: 192.168.1.90 Role:LVS+Keepal

LB负载均衡集群之LVS(DR)

配置DR LVS工具ipvsadm 环境说明 四台机器: Director负载均衡调度器,网卡(公网IP,实验用nat)eth0:192.168.134.140 Vip:etho:0:192.168.134.150 Real server1真实机器.真实服务器,网卡(公网IP,实验用nat)eth0:192.168.134.137 Real server2真实机器.真实服务器,网卡(公网IP,实验用nat)eth0:192.168.134.138 Client 客户端 网卡(公网IP,实验用na

LB负载均衡集群之LVS(NAT)

NAT模式 调度过程IP包详细图: 原理请看:<LVS算法转载> 实验准备 三台机器 一台为负载均衡调度器director,两张网卡,一个外网(客户请求)192.168.134.141,一个内网192.168.143.136 两台真实服务器real server,一张网卡,内网192.168.143.130和192.168.143.134 真实服务器的网关设置为负载均衡器的内网IP 192.168.143.136 实验环境为虚拟机,所以先用nat模式下载需要的服务ipvsadm,nginx,然

LB(Load balance)负载均衡集群--{LVS-[NAT+DR]单实例实验+LVS+keeplived实验} 菜鸟入门级

LB(Load balance)负载均衡集群 LVS-[NAT+DR]单实例实验 LVS+keeplived实验 LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统. 逻辑可分为: 1调度层 (Director):它是整个集群对外面的前端机,负责将客户的请求发送到一组服务器上执行,而客户认为服务是来自一个IP地址(我们可称之为虚拟IP地址)上的. 2[服务器池(server pool)/集群层(Real server)]:是一组真正执行客

LVS高性能集群

LVS高性能集群  ====负载均衡硬件设备 1.什么是LVS?   linux virtual service,linux虚拟服务,使用多台服务器一起工作来提高服务的访问和处理性能   2.lvs的工作模式   (1)nat:通过地址转换访问服务   (2)tun:通过IP隧道访问服务   (3)dr:直接调度访问服务  ====直接路由调度 1.轮寻    2.加权,根据硬件的好坏来设置权值   3.最小连接4. 加权最小连接5. 基于地址的最小连接调度6. 目标7. 源        3.

LVS负载均衡之持久性连接介绍(会话篇)

在实际生产环境中,往往需要根据业务应用场景来设置lvs的会话超时时间以及防session连接丢失的问题提,如在业务支付环节,如若session丢失会导致重复扣款问题,严重影响到安全性,本小节解将会讲到关于lvs持久性连接问题 一.lvs负载均衡持久连接介绍: 引子(案例) 对于电子商务网站来说,用户在挑选商品的时候使用的是80端口来浏览的,当付款的时候则是通过443的ssl加密的方式,当然当用户挑选完商品付款 的时候,我们当然不希望https的443跳转到另外一台REAL SERVER上,很显然

LVS集群之十种调度算法及负载均衡(配置篇)

架构图: 1.安装keepalived keepalived起初是为LVS设计的,专门用来监控集群系统中各个服务节点的状态,后来又加入了VRRP的功能,VRRP是Virtual Router Redundancy Protocol(虚拟路由器冗余协议)的缩写,VRRP出现的目的就是为了解决静态路由出现的单点故障问题,它能够保证网络的不间断.稳定的运行.所以,keepalived一方面具有服务器健康检测功能,另一方面也具有HA cluster功能. [email protected]:~$ apt