LegendServer分布式服务器负载均衡的优化

首先见:LegendServer拓扑架构图

因为上次删档封测测试存在统计CCU时出现不准确的情况,需要做负载均衡的优化:

每个类型的服务器可以多配置但是每个服务器在处理逻辑时是单线程的,但每个服务器就并行与Center交互的,不能由Proxy、AC、Logic在检测到玩家上线时将各自的CCU通知Center更新,因为当时大量玩家通过某个服务器涌入进来时CCU的更新消息还没到达Center的时候,Center在负载分配时则自然不再均衡,因为Center根据每个服务器的CCU来以及其他指标来分配最低CCU最优的服务器给玩家,而真实CCU都还没来的及更新过来就已来负载分配显然不合理。

0、由玩家从AC登陆时Center统一累加AC、Proxy、Logic的CCU,其中Proxy和Logic提前累加CCU(第3、4点会纠正可能出现的误差),该步骤解决了大量玩家正常流程同时涌入进来负载不均衡的问题。
1、查询CCU时则从AC和Proxy的Session里统计真实的在线状态的人数
3、每个AC和Proxy以及Logic在检测到玩家掉线时通知Center对各服务器的CCU减值
4、玩家在登陆上线时将CCU通过AC和Proxy将当前Session里真实的在线状态的人数告知Center覆盖当前的统计,以纠正负载误差(比如只连接上AC时将Proxy和Logic的CCU也加上去了但玩家因为网络信号特殊情况或者逻辑异常并未在接下来连接上Proxy和进入Logic)

本思路不局限于LegendServer拓扑架构且仅供本人笔记记录与参考。

时间: 2024-10-05 15:41:35

LegendServer分布式服务器负载均衡的优化的相关文章

PIOLINK服务器负载均衡解决方案设计

PIOLINK服务器负载均衡解决方案设计 系统设计的基本原则 l 实用.先进.安全.可扩展是本系统设计的基本原则 本建议书首先是满足现有和可预见未来几年内的应用要求:其次是考虑在投资增加很少的前提下,选择目前可以提供最先进技术手段的设备和系统方案:最后要考虑实现的安全系统面对应用要有长远发展的能力. l 稳定性和可靠性 对于业务系统的底层传输平台的网络系统必须要保证其工作的可靠性和稳定性,保证常年的不间断运行,这样才能提供及时.准确.可靠的信息支持. l 安全性 安全性是信息系统建设所必须优先解

Nginx+Tomcat服务器负载均衡实践方案

1.    为何选择Nginx+Tomcat做负载均衡? 1.1. Nginx是什么? Nginx(发音同 engine x)是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,并在一个BSD-like 协议下发行.由俄罗斯的程序设计师Igor Sysoev所开发,供俄国大型的入口网站及搜索引擎Rambler(俄文:Рамблер)使用.其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户

HAProxy+Keepalived实现Web服务器负载均衡

2014年03月31日  HAProxy  暂无评论  被围观 12,941次+ 说明: 操作系统:CentOS 5.X 64位 Web服务器:192.168.21.127.192.168.21.128 站点:bbs.osyunwei.com和sns.osyunwei.com部署在两台Web服务器上 实现目的: 增加两台服务器(主主模式),通过HAProxy+Keepalived实现Web服务器负载均衡 架构规划: HAProxy服务器:192.168.21.129.192.168.21.130

inux 下查看服务器负载均衡

linux 下查看服务器负载均衡 uptime 20:57:21 up  9:18,  1 user,  load average: 0.73, 0.66, 0.50 #显示当前用户数,以及最近1 分钟内.5分钟内.15 分钟内系统的平均负载 more /proc/loadavg 0.64 0.64 0.50 2/251 4705 #用于显示系统1秒钟平均负载.5秒钟平均负载.15秒钟平均负载.总作业数.正在运行的作业总数 shell> more /proc/stat cpu  69415 0

多链路及服务器负载均衡原理与设备构建方案

随着互联网的飞速发展,越来越多的商务活动通过互联网完成,网络性能却越来越不能满足日益增多互联网需求.随着因特网用户的急剧增多,用户越来越感受到应答时间延迟和带宽的不足.为了解决这些问题,用户为优化网络环境投入了大量的资金,但结果并未达到预期的效果.用户迫切需一套改善网络系统4S-Stability(安定性).Scalability(扩展性).Speed(高速性).Security(安全性)的最佳解决方案. PIOLINK负载均衡解决方案有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点

服务器负载均衡基础概念

服务器负载均衡:按字面理解就是将网络流量负载负担.根据不同网络层次可分为二层负载.三层负载.四层负载.七层负载. 三层负载:三层负载最好理解,所以先讲三层负载.三层负载基于IP地址来分担的.对于了解NAT技术的人来说更好理解.一般拓扑如下: 负载设备(SLB)对外提供一个VIP(虚拟IP),客户端通过访问虚IP,SLB将客户端流量调调度服务器端.类似NAT中一对多效果.如客户端C1第一访问VIP调度到服务器A上,第二次访问就调度到服务器B上.我们称这种轮询调度为轮询调度算法,调度规则称为调度算法

LVS详解及基于LVS实现web服务器负载均衡

前言 LVS(Linux Virtual Server)Linux虚拟服务器,是一个虚拟的服务器集群系统.本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一.通过LVS提供的负载均衡技术和Linux操作系统可实现一个高性能.高可用的服务器群集,从而以低成本实现最优的服务性能. 集群基础 集群简介 集群(Cluster)是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器.集群配置是用

LAMP平台基于NFS实现web服务器负载均衡

前言 随着访问量的逐渐增大,一台web服务器可能已经无法满足需求,这就需要增加web服务器的数量了,于是问题就来了:如何保证两台服务器数据同步呢?本文将讲解如何基于NFS实现web服务器的负载均衡及数据同步. NFS服务介绍 NFS(Network File System)网络文件系统,允许一个系统通过网络共享目录和文件,通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件.NFS本身没有提供数据传输的功能,必须借助于远程过程调用(RPC)协议来实现数据的传输. 配置文件 NFS

公司网络web服务器负载均衡解决方案

公司网络web服务器负载均衡解决方案 随着公司产品业务的推广发展壮大,对服务器的硬件性能.相应速度.服务稳定性.数据可靠性的要求越来越高.今后服务器的负载将难以承受所有的访问.从公司的实际情况,运营成本网络安全性考虑,排除使用价格昂贵的大型服务器.以及部署价格高昂的专用负载均衡设备. DNS轮询负载均衡解决方案虽然成本低廉但是安全性能不是很好,加上公司产品的特殊性需要用户验证的体系,在会话保持方面是一大缺陷,会话保持,如果是需要身份验证的网站,在不修改软件构架的情况下,这点是比较致命的,因为DN