Web服务器负载均衡的几种方案 : DNS轮询

本篇主要讲一下最简单的方案——DNS轮询。

DNS轮询

大多域名注册商都支持多条A记录 的解析,其实这就是DNS轮询 ,DNS 服务器 将解析请求按照A记录 的顺序,逐一分配到不同的IP上,这样就完成了简单的负载均衡 。

优点

  • 基本上无成本,因为往往域名注册商的这种解析都是免费的;
  • 部署方便,除了网络拓扑的简单扩增,新增的Web服务器只要增加一个公网IP即可。

缺点

  • 健康检查,如果某台服务器宕机,DNS服务器是无法知晓的,仍旧会将访问分配到此服务器。修改DNS记录全部生效起码要3-4小时,甚至更久;
  • 分配不均,如果几台Web服务器之间的配置不同,能够承受的压力也就不同,但是DNS解析分配的访问却是均匀分配的。其实DNS也是有分配算法的,可以根据当前连接较少的分配、可以设置Rate权重分配等等,只是目前绝大多数的DNS服务器都不支持;
  • 会话保持,如果是需要身份验证的网站,在不修改软件构架的情况下,这点是比较致命的,因为DNS解析无法将验证用户的访问持久分配到同一服务器。虽然有一定的本地DNS缓存,但是很难保证在用户访问期间,本地DNS不过期,而重新查询服务器并指向新的服务器,那么原服务器保存的用户信息是无法被带到新服务器的,而且可能要求被重新认证身份,来回切换时间长了各台服务器都保存有用户不同的信息,对服务器资源也是一种浪费。

部署方法

这个是万网的域名控制面板,将同一域名解析到2条A记录 上。 

这个是免费的智能DNS 解析服务,www.dns pod.com,不仅可以多条A记录 ,而且还能使用中国特色,根据电信、网通、教育网的用户访问,解析到不同的IP上。 

实验

先将www.alcoholwang.cn的A记录 解析到61.172.244.75和61.172.244.91上,然后使用nslookup工具查看。

总结

之前看到文章中讨论,关于DNS 服务器 的压力问题,其实并不用太过担心,因为解析记录通常都是有一小时的缓存的,如果用户最近一级的DNS 服务器 上的解析记录还未过期的话,是不用查询主服务器 的,通常DNS 都有一小时的缓存,所以这样就等于把压力分摊到了各用户最近一级的DNS 服务器 上了。

原文地址:https://www.cnblogs.com/aspirant/p/8757336.html

时间: 2024-07-30 07:00:06

Web服务器负载均衡的几种方案 : DNS轮询的相关文章

公司网络web服务器负载均衡解决方案

公司网络web服务器负载均衡解决方案 随着公司产品业务的推广发展壮大,对服务器的硬件性能.相应速度.服务稳定性.数据可靠性的要求越来越高.今后服务器的负载将难以承受所有的访问.从公司的实际情况,运营成本网络安全性考虑,排除使用价格昂贵的大型服务器.以及部署价格高昂的专用负载均衡设备. DNS轮询负载均衡解决方案虽然成本低廉但是安全性能不是很好,加上公司产品的特殊性需要用户验证的体系,在会话保持方面是一大缺陷,会话保持,如果是需要身份验证的网站,在不修改软件构架的情况下,这点是比较致命的,因为DN

LVS详解及基于LVS实现web服务器负载均衡

前言 LVS(Linux Virtual Server)Linux虚拟服务器,是一个虚拟的服务器集群系统.本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一.通过LVS提供的负载均衡技术和Linux操作系统可实现一个高性能.高可用的服务器群集,从而以低成本实现最优的服务性能. 集群基础 集群简介 集群(Cluster)是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器.集群配置是用

LAMP平台基于NFS实现web服务器负载均衡

前言 随着访问量的逐渐增大,一台web服务器可能已经无法满足需求,这就需要增加web服务器的数量了,于是问题就来了:如何保证两台服务器数据同步呢?本文将讲解如何基于NFS实现web服务器的负载均衡及数据同步. NFS服务介绍 NFS(Network File System)网络文件系统,允许一个系统通过网络共享目录和文件,通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件.NFS本身没有提供数据传输的功能,必须借助于远程过程调用(RPC)协议来实现数据的传输. 配置文件 NFS

HAProxy+Keepalived实现Web服务器负载均衡

2014年03月31日  HAProxy  暂无评论  被围观 12,941次+ 说明: 操作系统:CentOS 5.X 64位 Web服务器:192.168.21.127.192.168.21.128 站点:bbs.osyunwei.com和sns.osyunwei.com部署在两台Web服务器上 实现目的: 增加两台服务器(主主模式),通过HAProxy+Keepalived实现Web服务器负载均衡 架构规划: HAProxy服务器:192.168.21.129.192.168.21.130

web实现负载均衡的几种实现方式

摘要: 负载均衡(Load Balance)是集群技术(Cluster)的一种应用.负载均衡可以将工作任务分摊到多个处理单元,从而提高并发处理能力.目前最常见的负载均衡应用是Web负载均衡.根据实现的原理不同,常见的web负载均衡技术包括:DNS轮询.IP负载均衡和CDN.其中IP负载均衡可以使用硬件设备或软件方式来实现. 什么是web负载均衡 服务器集群(Cluster)使得多个服务器节点能够协同工作,根据目的的不同,服务器集群可以分为: 高性能集群:将单个重负载的请求分散到多个节点进行处理,

web服务器负载均衡与集群基本概念二

前面已经说过负载均衡的作用是在多个节点之间按照一定的策略(算法)分发网络或计算处理负载.负载均衡可以采用软件和硬件来实现.一般的框架结构可以参考下图.    后台的多个Web节点上面有相同的Web应用,用户的访问请求首先进入负载均衡分配节点(可能是软件或者硬件),由它根据负载均衡策略(算法)合理地分配给某个Web应用节点.每个Web节点相同的内容做起来不难,所以选择负载均衡策略(算法)是个关键问题.下面会专门介绍均衡算法. web负载均衡的作用就是把请求均匀的分配给各个节点,它是一种动态均衡,通

LVS负载均衡之IPVSADM命令说明与轮询解释

"1" IPVSADM常用参数说明:-A:在内核的虚拟服务器表中添加一条新的虚拟服务器记录-E:编辑内核虚拟服务器表中的一条虚拟服务器记录-D:删除内核虚拟服务器表中的一条虚拟服务器记录-C:清除内核虚拟服务器表中的所有记录-R:恢复虚拟服务器规则-S:保存虚拟服务器规则,输出为-R选项可读的格式-a:在内核虚拟服务器表的一条记录里添加一条新的真实服务器记录-e:编辑一条虚拟服务器记录中的某条真实服务器记录-d:删除一条虚拟服务器记录中的某条真实服务器记录-L|-l:显示内核虚拟服务器

分别使用Nginx反向代理和Haproxy调度器实现web服务器负载均衡

1.1 使用nginx实现静态分离得负载均衡集群 1.1.1 Nginx负载均衡基础知识 本实验使用的主机是: 主机 IP地址 角色 centos23.cn 192.168.3.23 Nginx反向代理服务器 centos24.cn 192.168.3.24 web服务器 centos25.cn 192.168.3.25 web服务器 网络拓扑图: Nginx的upstream负载的5种方式,目前最常用得前3种方式 1.轮询(默认) 每个请求按时间顺序逐一分配到不同得后端服务器,如果后端服务器d

利用lvs-nat实现两台web服务器负载均衡的简单案例

写在前面:如果此文有幸被某位朋友看见并发现有错的地方,希望批评指正.如有不明白的地方,愿可一起探讨. 案例拓扑图 配置主机1 安装ipvsadm # yum -y install ipvsadm # ipvsadm -A -t 10.170.2.80:80 -s rr # ipvsadm -a -t 10.170.2.80:80 -r 192.168.3.101 -m # ipvsadm -a -t 10.170.2.80:80 -r 192.168.3.102 -m # echo 1 > /p