硬件负载均衡F5和软负责均衡Nginx

请直接搜索相关文章了解:http://www.ideadata.com.cn/wisdomAction/readWisdom.do?id=75

 

F5,硬件

优点:能够直接通过智能交换机实现,处理能力更强,而且与系统无关,负载性能强,更适用于一大堆设备、大访问量、简单应用。

缺点:成本高,除设备价格高昂,而且配置冗余,很难想象后面服务器做一个集群,但最关键的负载均衡设备却是单点配置,无法有效掌握服务器及应用状态。

硬件负载均衡,一般都不管实际系统与应用的状态,而只是从网络层来判断,所以有时候系统处理能力已经不行了,但网络可能还来得及反应(这种情况非常典型,比如应用服务器后面内存已经占用很多,但还没有彻底不行,如果网络传输量不大就未必在网络层能反映出来)

Nginx,软负载

优点:基于系统与应用的负载均衡,能够更好地根据系统与应用的状况来分配负载。这对于复杂应用是很重要的,性价比高,实际上如果几台服务器,用F5之类的硬件产品显得有些浪费,而用软件就要合算得多,因为服务器同时还可以跑应用、做集群等。

缺点:负载能力受服务器本身性能的影响,性能越好,负载能力越大。

原文地址:https://www.cnblogs.com/shengulong/p/10201153.html

时间: 2024-11-05 11:53:34

硬件负载均衡F5和软负责均衡Nginx的相关文章

HAPROXY实现web负责均衡配置

本人系统RedHat6.4 ,HAPROXY版本为haproxy-1.3.15.10.tar.gz 安装 安装PCRE –       [[email protected]~]# yum -y install pcre pcre-devel 解压并进入haproxy目录 –       [[email protected]~]# tar xvzf haproxy-1.4.24.tar.gz –       [[email protected]~]# cd haproxy-1.4.24 查看内核版

Tomcat 负责均衡及cluster session

一.nginx负载均衡tomcat 二.apache基于http负载均衡tomcat 三.apache基于ajp负载均衡tomcat 四.haproxy负载均衡tomcat 五.tomcat cluster session 一.nginx负载均衡tomcat 环境: IP:172.16.110.47 OS:CentOS7.3 Nginx:1.10.2 IP:172.16.110.25 OS:CentOS7.3 Tomcat:8.0.39 jdk:java-1.8.0-openjdk IP:172

keepalived的高可用nginx和lvs实现负责均衡

keepalived VRRP协议 VRRP(virtual route Redundancy Protocol),虚拟路由冗余协议.因为每个设备的都只有一个默认网关指向,一旦这个默认指向的网关处理问题.我们就需要重新设定默认网关的指向.VRRP就是解决这个问题出现,VRRP协议是将一组路由划分起来.在这组路由器中只设置一个虚拟IP和虚拟MAC地址,然后根据设定的规则在这组路由器中转移.每个路由器都有各自网卡和IP地址,同时在主路由上有VIP(飘移IP).在这组路由中,通过投票选举的方式选出主路

架构设计:负载均衡层设计方案(6)——Nginx + Keepalived构建高可用的负载层

1.概述 前两遍文章中,我们一直在说后文要介绍Nginx + Keepalived的搭建方式.这篇文章开始,我们就来兑现前文的承诺,后续的两篇文章我们将介绍Nginx + Keepalived和 LVS + Keepalived搭建高可用的负载层系统.如果你还不了解Nginx和LVS的相关知识,请参见我之前的两篇文章<架构设计:负载均衡层设计方案(2)--Nginx安装>(http://blog.csdn.net/yinwenjie/article/details/46620711).<

架构设计:负载均衡层设计方案(3)——Nginx进阶

上篇文章<架构设计:负载均衡层设计方案(2)——Nginx安装>(http://blog.csdn.net/yinwenjie/article/details/46620711),我们介绍了Nginx的核心设计思想.基本安装和使用.本来准备继续介绍Nginx的几个使用特性,但是奈何博文篇幅太长,只有将一篇文章拆成两篇.本文我们将承接上文,继续讲解Nginx的实用特性,包括gzip功能.rewirte功能和一个第三方的节点监测模块.本文我们还将提到Taobao团队对Nginx的深度改造Tengi

F5硬件负载均衡技术

负载均衡是什么,负载均衡的实质? 实现负载均衡所需要的组件: 被负载的流量或请求 接受流量或请求的入口 负载的对象 负载的方式 负载的条件 全代理架构(full-proxy)F5 当访问者请求服务器的时候,首先会请求负载均衡(建立三次捂手,F5会对请求的内容进行检测,然后F5会请求服务器(进行三次握手) 非全代理架构模式 LVS:当访问者发来请求包的时候,负载均衡其将会利用算法进行把请求传达服务器(负载均衡作用是反向代理进行NAT转发) VIP或VS的访问规则(网络通用技术) 目的地址: 10.

架构设计:负载均衡层设计方案(2)——Nginx安装

前一篇文章<架构设计:负载均衡层设计方案(1)--负载场景和解决方式>中我们描述了要搭设负载均衡层的业务场景和负载均衡层搭建和扩展思路.从这篇文章开始的后几篇文章,我们将详细介绍Nginx.LVS和Nginx+Keepalived.LVS+Keepalived和LVS+Nginx+Keepalived的安装细节,以及它们的性能优化方式. Nginx和LVS都是可以独立工作的,Keepalived作为检测机制,不但可以和Nginx.LVS集成也可以和其他软件集成形成高可用方案(例如可以和MySQ

LVS(负载均衡)+keepalived(HA)+Nginx(反向代理)+Web(动静态网站服务器)

考虑到LVS和Nginx的缺点(由于LVS采用的是同步请求转发策略而Nginx采用的是异步转发策略,结合两者的缺点:作为负载均衡服务器的Nginx和LVS处理相同的请求时,所有的请求和响应流量都会经过Nginx服务器,但是使用LVS时,仅请求流量经过LVS的网络,响应流量由后端的服务器的网络返回,也就是说,当后端web服务器规模较大时,Nginx的网络带宽就成了一个巨大的瓶颈,但是仅仅使用LVS作为负载均衡使用时,一旦后端接收到请求的服务器出了问题,那么这次请求就失败了,如果在LVS后端添加一层

asp.net core 负载均衡集群搭建(centos7+nginx+supervisor+kestrel)

概述 本文目的是搭建三台asp.net core 集群, 并配上 nginx做负载均衡 首先准备要运行的源码 http://pan.baidu.com/s/1qYNBvEs 准备三台服务器(或则虚拟机)  192.168.182.129  , 192.168.182.130 , 192.168.182.131 并将源码发布至三台服务器的 /root/aspnetcore/anuoapc 目录 在三台机器上分别搭建如下环境 第一步:NET Core 安装 (centos 7) 1. sudo yu