简易nginx load balance示例

更多:http://www.webyang.net/Html/web/article_137.html

nginx是以反向代理的形式配置运行,对请求的实际处理需要转发到后端服务器执行。后端服务器可能有一台或多台,如何选择一台合适的后端服务器来处理当前请求便是nginx负载均衡。

nginx不单可以作为强大的web服务器,也可以作为一个反向代理服务器,而且nginx还可以按照调度规则实现动态、静态页面的分离,可以按照轮询、ip哈希、URL哈希、权重等多种方式对后端服务器做负载均衡。

如果只有一台服务器时,服务器挂了,那么对于网站来说是个灾难。因此,这时候的负载均衡就会大显身手了,它会自动剔除挂掉的服务器。

负载均衡模块Load-balance是辅助模块,主要为Upstream模块服务,目标明确且单一:如何从多台后端服务器中选择出一台合适的服务器来处理。

简单示例:

  1. http {
  2. upstream myproject {
  3. server 127.0.0.1:8000 weight=3;
  4. server 127.0.0.1:8001;
  5. server 127.0.0.1:8002;
  6. server 127.0.0.1:8003;
  7. }
  8. server {
  9. listen 80;
  10. server_name www.domain.com;
  11. location / {
  12. proxy_pass http://myproject;
  13. }
  14. }
  15. }

其他的照常配置即可。

今天是大年初五,祝大家新年快乐!另外:一起学习,共同进步吧~

时间: 2024-10-31 02:14:13

简易nginx load balance示例的相关文章

golang JSON webservice - nginx load balance

func main() { http.HandleFunc("/api", apiHandler) http.HandleFunc("/query/main", mainHandler) http.HandleFunc("/query/show", showHandler) http.HandleFunc("/", mainHandler) http.ListenAndServe(":8081", nil)

Load Balance Tomcat with Nginx and Store Sessions in Redis--reference

An awkward title, but that’s exactly what we’re going to do. For some time, I was looking for a way to push code to production systems with zero downtime and zero impact to any active users. Surprisingly, the solution took very little time to impleme

LB(Load balance)负载均衡集群--{LVS-[NAT+DR]单实例实验+LVS+keeplived实验} 菜鸟入门级

LB(Load balance)负载均衡集群 LVS-[NAT+DR]单实例实验 LVS+keeplived实验 LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统. 逻辑可分为: 1调度层 (Director):它是整个集群对外面的前端机,负责将客户的请求发送到一组服务器上执行,而客户认为服务是来自一个IP地址(我们可称之为虚拟IP地址)上的. 2[服务器池(server pool)/集群层(Real server)]:是一组真正执行客

亲密接触Redis-第三天(Redis的Load Balance)

前言 上两天讲述了Redis的基本搭建和基于HA的集群布署方式以及相关的策略和注意点.今天开始讲述Redis的Cluster功能,而这块目前来说网上资料不是太全,就算有1,2篇也只是单讲服务端的搭建也并未提及相关的客户端怎么和Redis Cluster间的调用问题. 我们今天要讲述的Redis Cluster是真正的Load Balance,它和Sentinel不一样,Sentinel虽然也叫集群,可是它是一种HA策略即High Available或者又通俗的被称为"灾难转移"策略.

LB(load balance)负载均衡集群之LVS

LB(load balance)负载均衡集群 原理:当用户的请求过来,会直接发送到分发器上(Director Server),然后它把用户的请求根据预先设置好的算法,智能均衡的分发到后端真是的服务器上(real server).如果不同的机器,可能请求的数据不一样,为了避免这样的情况发生,使用共享存储,保证所有的用户请求的数据是一样的. 常用的负载均衡开源软件有: lvs,keepalived,haproxy,nginx,apache,heartbeat 商业的硬件负载设备: F5,Netsca

Using load balance for thrift servers

Software load balance .Nginx(http://nginx.org) 1.Install nginx download source code from http://nginx.org/en/download.html ./auto/configure make & make install 2.Install tcp module patch developed by Yao Weibin http://yaoweibin.github.io/nginx_tcp_pr

Oracle RAC 服务器端连接负载均衡(Load Balance)

Oracle RAC服务器端的负载均衡是根据RAC中各节点的连接负荷数情况,将新的连接请求分配到负荷最小的节点上去.当数据库处于运行时,RAC中各节点的PMON进程每3秒会将各自节点的连接负荷数更新到service_register.而对于节点中任意监听器故障或监听器意外失败时,PMON进程会每1秒钟检查当前节点上的监听是否重启,以获得最新的负载信息来及时调整负载均衡.本文主要演示suse 10 + oracle 10g rac下的服务器端的负载均衡. 有关客户端的负载均衡可参考      Or

Oracle RAC 客户端连接负载均衡(Load Balance)

实现负载均衡(Load Balance)是Oracle RAC最重要的特性之一,主要是把负载平均分配到集群中的各个节点,以提高系统的整体吞吐能力.通常情况下有两种方式来实现负载均衡,一个是基于客户端连接的负载均衡,一个是基于服务器端监听器(Listener)收集到的信息来将新的连接请求分配到连接数较少实例上的实现方式.本文主要讨论的是基于客户端连接的负载均衡,并给出演示. 与负载均衡配置之前的监听配置请参考              ORACLE RAC 监听配置 (listener.ora t

Vertica7 Native Connection Load Balance

原文链接:Vertica7 Native Connection Load Balance 在Vertica7以前的版本中,Vertica是通过Linux的Virtual IP来实现连接的负载均衡的,但是在Vertica7x中,Vertica本身提供了连接的负载均衡功能,这个功能用起来也是非常方便的,下面就来看看怎么使用这个功能. 1. 首先安装N个Vertica7的节点,然后用数据库管理员的身份运行下面的命令来让Vertica使用这个功能 SELECT SET_LOAD_BALANCE_POLI