LVS调度器中NAT工作模式实验

LVS群集创建与管理
使用ipvsadm工具

Network File System,网络文件系统

  • 依赖于RPC(远端过程调用)
  • 需要安装nfs-utils、rpcbind软件包
  • 系统服务:nfs、rpcbind
  • 共享配置文件:/etc/exports
    案例环境
  • LVS调度器作为web服务器池的网关,LVS两块网卡,分别连接内外网,使用轮询(rr)调度算法
    实验案例图

    实验过程
    一、配置NFS存储服务器,提供存储空间
    1.首先为nfs服务器添加两块硬盘

    2.添加硬盘后重启服务器

    3.为每台服务器修改主机名,方便识别




    4.查看新添加的硬盘

    格式化两块硬盘(两块方法一致,以sdb为例)


    格式化完成后进行挂载,先创建两个挂载点

    修改/etc/fstab文件

    挂载成功

    5.共享存储空间
    关闭防火墙

    共享所需文件包都存在

    修改配置文件


    修改网卡为仅主机模式

    此时nfs处于无法连接状态,所以就在虚拟机终端进行配置
    开启服务并且查看共享空间路径是否提供

    修改网卡配置,因为我们切换了连接模式


    重启网卡并验证


    NFS服务器配置完成
    二、配置两台Web服务器
    首先安装Apache服务(两台web服务器配置过程一样,以Web1为例)

    关闭防火墙

    切换网卡为仅主机模式

    修改web1网卡地址


    修改web2网卡


    提供站点
    vim /etc/fstab



    挂载站点并查看


    进入默认首页写入内容



    开启服务

    到这里,两台Web服务器的工作也全部完成
    三、配置LVS服务器
    1.下载安装ipvsadm工具

    2.为LVS服务器添加网卡,并设为仅主机模式


    复制一份网卡内容并对两张网卡进行修改




    重启网卡并且检查

    使用两台web服务器ping网关测试是否能联通


    开启路由转发功能


    使用iptables配置防火墙设置
    清除转发表
    清除NAT地址转换表

    修改win10客户机的IP地址



    客户机pingLVS服务器测试

    加载LVS内核模块

    定义启动脚本

    启动脚本

    接下来去客户机上测试


    LVS调度器中NAT工作模式的实验完成了!

原文地址:https://blog.51cto.com/14557905/2466802

时间: 2024-10-01 03:45:25

LVS调度器中NAT工作模式实验的相关文章

LVS负载均衡(LVS简介、三种工作模式、、调度原理以及十种调度算法)

LVS简介 LVS(Linux Virtual Server)即Linux虚拟服务器,是由章文嵩博士主导的开源负载均衡项目,目前LVS已经被集成到Linux内核模块中.该项目在Linux内核中实现了基于IP的数据请求负载均衡调度方案,其体系结构如图1所示,终端互联网用户从外部访问公司的外部负载均衡服务器,终端用户的Web请求会发送给LVS调度器,调度器根据自己预设的算法决定将该请求发送给后端的某台Web服务器,比如,轮询算法可以将外部的请求平均分发给后端的所有服务器,终端用户访问LVS调度器虽然

LVS负载均衡(LVS简介、三种工作模式、十种调度算法)《转》

一.LVS简介 LVS(Linux Virtual Server)即Linux虚拟服务器,是由章文嵩博士主导的开源负载均衡项目,目前LVS已经被集成到Linux内核模块中.该项目在Linux内核中实现了基于IP的数据请求负载均衡调度方案,其体系结构如图1所示,终端互联网用户从外部访问公司的外部负载均衡服务器,终端用户的Web请求会发送给LVS调度器,调度器根据自己预设的算法决定将该请求发送给后端的某台Web服务器,比如,轮询算法可以将外部的请求平均分发给后端的所有服务器,终端用户访问LVS调度器

virtualBox中NAT网络模式下的ssh连接问题

最近在另一台电脑上更换了个虚拟机VirtualBox,这个虚拟机与Vmware使用上有很大的区别,首先这个虚拟机是免费的,其次网络配置会很简单,但习惯了Vmware的网络配置在VirtualBox中配置ssh远程操作上就遇到了不知道怎样连接了,下面就说下在virtualBox中NAT网络模式下的ssh连接问题,两个虚拟机在桥接模式下的ssh配置都是一样的,知识NAT模式下不同. ssh服务设置 yum list installed | grep openssh-server 查看是否存在ssh服

初识LVS(一)——LVS介绍和LVS的NAT工作模式

LVS介绍 集群按照类型划分可以分为:LB负载均衡型:HA高可用型:HP高性能型.LVS(linux virtual machine)是一款国人编写用于LB负载均衡型被收录进Linux内核的工具.LVS由ipvs和ipvsadmin组成,ipvs工作在netfilter框架上,而ipvsadm则是使用者在用户空间的命令行工具,通过调用ipvs的API管理集群服务.LVS支持TCP.UDP.AH, EST, AH_EST, SCTP等诸多协议,与haproxy(haproxy也可以以mod tcp

LVS调度方法及NAT模型

LVS: 类型: NAT:地址转换 DR:直接路由 TUN:隧道 NAT: 集群节点跟director必须在同一个IP网络中 RIP通常是私有地址,仅用于各集群节点间的通信 director位于client和real server之间,并负责处理进出的所有通信 支持端口映射 realserver可以使用任意OS 较大规模应用场景中,director易成为系统瓶颈 DR: 集群节点跟director必须在同一个物理网络中 RIP可以使用公网地址,实现便捷的远程管理和监控 director仅负责处理

nginx、haproxy、lvs调度器对比

负载:Nginx < HAproxy < LVS   Nginx分析 ? 优点– 工作在7层,可以针对http做分流策略– 正则表达式比HAProxy强大– 安装.配置.测试简单,通过日志可以解决多数问题– 并发量可以达到几万次– Nginx还可以作为Web服务器使用? 缺点– 仅支持http.https.mail协议,应用面小– 监控检查仅通过端口,无法使用url检查  LVS分析 ? 优点– 负载能力强,工作在4层,对内存.CPU消耗低– 配置性低,没有太多可配置性,减少人为错误– 应用面

初识LVS(三)——DR工作模式实际环境中的应用

背景介绍 LVS的NAT模型所有的请求和响应报文会经过director,此时director就成为了性能瓶颈,而为了解决这个问题LVS也默认采用的是DR模型(下图),请求报文(蓝色)向director发出请求,响应报文(红色)由RS服务器直接返还给用户不经由director,通常RS的网关都是指向IDC机房的出口路由,这样性能比通过director要好很多.VIP为公网IP地址,RIP和DIP需要连接在同一物理交换设备上,只要中间没有隔路由器,即使不是同一网段也可以,大多数情况RIP和DIP都位

FIFO 调度器中比较器的具体实现

class JobQueueJobInProgressListener extends JobInProgressListener ,其中JobQueueJobInProgressListener有个静态内部类JobSchedulingInfo int compare(Object o1, Object o2) 返回一个基本类型的整型 如果要按照升序排序, 则o1 小于o2,返回-1(负数),相等返回0,01大于02返回1(正数) 如果要按照降序排序  则o1 小于o2,返回1(正数),相等返回

LVS负载均衡器NAT和DR工作模式详解

在试验之前为了更好理解设置的参数,所以先讲解一下命令. 一.lvs配置文件和命令: 程序包:ipvsadm(LVS管理工具) 配置文件:/etc/sysconfig/ipvsadm-config [rpm -ql ipvsadm  查询包的具体列表] -A  在服务器列表中新添加一条新的虚拟服务器记录 -t 表示为tcp服务 -u 表示为udp服务 -s 使用的调度算法  (rr|wrr|wlc|lc|dh|sh|lblb|lblcr -a 在服务器里添加一条新的真是主机记录 -m 说明lvs提