服务器负载均衡基础概念

服务器负载均衡:按字面理解就是将网络流量负载负担。根据不同网络层次可分为二层负载、三层负载、四层负载、七层负载。

三层负载:三层负载最好理解,所以先讲三层负载。三层负载基于IP地址来分担的。对于了解NAT技术的人来说更好理解。一般拓扑如下:

负载设备(SLB)对外提供一个VIP(虚拟IP),客户端通过访问虚IP,SLB将客户端流量调调度服务器端。类似NAT中一对多效果。如客户端C1第一访问VIP调度到服务器A上,第二次访问就调度到服务器B上。我们称这种轮询调度为轮询调度算法,调度规则称为调度算法。准确的来说没有专用的三层负载设备,反倒很多时候使用防火墙等设备通过NAT做三层负载。

四层负载:在OSI模型中四层只有tcp和udp协议。通俗的来讲,就是比三层源IP、目的IP多查源端口、目的端口。如SLB提供10.1.1.100:80服务,调度到S1上,10.1.1.100:8080服务调度到S2上。对于调度算法还可以基于源IP+端口的hash算法或类似算法。还有根据tcp、udp协议的不同区分不同的服务。

七层负载:应用层协议较多,常用http、radius、dns等。七层负载就可以基于这些协议来负载。如客户度访问http://10.1.1.100/abc/index.html可以根据url:/abc/调度至服务器S1,若客户端访问http://10.1.1.100/def/index.html可根据url:/def/调度至服务器S2。同理,对于DNS协议来说,可根据客户端请求查询域名不同进行调度。如这种能够识别应用层数据能够实现更多策略。如http相关策略修改http url,cookie会话保持、http调度等,DNS策略域名调度,radius策略user_name调度等。

二层负载:二层负载比较特殊,SLB对外依然提供一个VIP(虚IP),但是后台服务器相同的IP,不同的MAC。如下:

客户端通过ip网络访问虚服务,SLB通过mac分发到不同的服务器。那么问题来了,服务器IP相同不就IP冲突了么?当然这些服务器都比较特殊,不发送arp报文,同样要求SLB连接交换机的口也不发送arp。只要SLB把报文发过去,交换机根据mac地址表项转发就ok了。

时间: 2024-12-22 12:08:08

服务器负载均衡基础概念的相关文章

LVS详解及基于LVS实现web服务器负载均衡

前言 LVS(Linux Virtual Server)Linux虚拟服务器,是一个虚拟的服务器集群系统.本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一.通过LVS提供的负载均衡技术和Linux操作系统可实现一个高性能.高可用的服务器群集,从而以低成本实现最优的服务性能. 集群基础 集群简介 集群(Cluster)是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器.集群配置是用

服务器负载均衡数据同步的实现

今天老师讲了服务器的架构,虽然简单,但还是有难点的,还要在此基础上进行扩展. 其中有关于服务器负载均衡时的数据同步,百度过后,看到了前辈们的分享: 利用inotify+rsync实现linux文件批量更新 批量同步.批量更新,这应该是做运维的朋友们经常做的工作,rsync是linux下一款非常强大的同步工具,采用差异同步的方法,只上传文件/文件夹的不同部分,同时可以对上传部分先进行压缩,所以rsync的传输效率是很高的但rsync也有缺点,最大的问题就是每次执行rsync命令都会遍历目标目录,当

分别使用Nginx反向代理和Haproxy调度器实现web服务器负载均衡

1.1 使用nginx实现静态分离得负载均衡集群 1.1.1 Nginx负载均衡基础知识 本实验使用的主机是: 主机 IP地址 角色 centos23.cn 192.168.3.23 Nginx反向代理服务器 centos24.cn 192.168.3.24 web服务器 centos25.cn 192.168.3.25 web服务器 网络拓扑图: Nginx的upstream负载的5种方式,目前最常用得前3种方式 1.轮询(默认) 每个请求按时间顺序逐一分配到不同得后端服务器,如果后端服务器d

PIOLINK服务器负载均衡解决方案设计

PIOLINK服务器负载均衡解决方案设计 系统设计的基本原则 l 实用.先进.安全.可扩展是本系统设计的基本原则 本建议书首先是满足现有和可预见未来几年内的应用要求:其次是考虑在投资增加很少的前提下,选择目前可以提供最先进技术手段的设备和系统方案:最后要考虑实现的安全系统面对应用要有长远发展的能力. l 稳定性和可靠性 对于业务系统的底层传输平台的网络系统必须要保证其工作的可靠性和稳定性,保证常年的不间断运行,这样才能提供及时.准确.可靠的信息支持. l 安全性 安全性是信息系统建设所必须优先解

LAMP平台基于NFS实现web服务器负载均衡

前言 随着访问量的逐渐增大,一台web服务器可能已经无法满足需求,这就需要增加web服务器的数量了,于是问题就来了:如何保证两台服务器数据同步呢?本文将讲解如何基于NFS实现web服务器的负载均衡及数据同步. NFS服务介绍 NFS(Network File System)网络文件系统,允许一个系统通过网络共享目录和文件,通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件.NFS本身没有提供数据传输的功能,必须借助于远程过程调用(RPC)协议来实现数据的传输. 配置文件 NFS

Nginx+Tomcat服务器负载均衡实践方案

1.    为何选择Nginx+Tomcat做负载均衡? 1.1. Nginx是什么? Nginx(发音同 engine x)是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,并在一个BSD-like 协议下发行.由俄罗斯的程序设计师Igor Sysoev所开发,供俄国大型的入口网站及搜索引擎Rambler(俄文:Рамблер)使用.其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户

公司网络web服务器负载均衡解决方案

公司网络web服务器负载均衡解决方案 随着公司产品业务的推广发展壮大,对服务器的硬件性能.相应速度.服务稳定性.数据可靠性的要求越来越高.今后服务器的负载将难以承受所有的访问.从公司的实际情况,运营成本网络安全性考虑,排除使用价格昂贵的大型服务器.以及部署价格高昂的专用负载均衡设备. DNS轮询负载均衡解决方案虽然成本低廉但是安全性能不是很好,加上公司产品的特殊性需要用户验证的体系,在会话保持方面是一大缺陷,会话保持,如果是需要身份验证的网站,在不修改软件构架的情况下,这点是比较致命的,因为DN

HAProxy+Keepalived实现Web服务器负载均衡

2014年03月31日  HAProxy  暂无评论  被围观 12,941次+ 说明: 操作系统:CentOS 5.X 64位 Web服务器:192.168.21.127.192.168.21.128 站点:bbs.osyunwei.com和sns.osyunwei.com部署在两台Web服务器上 实现目的: 增加两台服务器(主主模式),通过HAProxy+Keepalived实现Web服务器负载均衡 架构规划: HAProxy服务器:192.168.21.129.192.168.21.130

inux 下查看服务器负载均衡

linux 下查看服务器负载均衡 uptime 20:57:21 up  9:18,  1 user,  load average: 0.73, 0.66, 0.50 #显示当前用户数,以及最近1 分钟内.5分钟内.15 分钟内系统的平均负载 more /proc/loadavg 0.64 0.64 0.50 2/251 4705 #用于显示系统1秒钟平均负载.5秒钟平均负载.15秒钟平均负载.总作业数.正在运行的作业总数 shell> more /proc/stat cpu  69415 0