怎么用pfSense为你的web服务做负载均衡

注意pfSense的负载均衡有两种:一是设置多个WAN做双线负载均衡,二是本文的为LAN内的web服务器做inbound-loadbalancer。

这篇文章中展示了怎么使用pfSense 2.0 为你的多个web服务器配置负载均衡(load balancer)。这里假定在你的网络环境中已经拥有了一个pfSense服务器和2个以上的apache服务器,并且具有一定的pfSense知识。

1.前提

一个安装好的pfSense 2.0 机器(如果它是你的外围防火墙,建议安装在物理机上)

至少2个apache服务器(可以是虚拟机)

确保在apache服务器之间代码文件是同步的(rsync、cororsync或其它可以保持web服务器间文件更新)

2. 配置pfSense

pfSense可以使用负载均衡的功能让特定的请求压力由多台服务器分担,这对于有多台应用的服务器很有帮助,因为你可以把负载压力分散到其它节点上而不是死磕一个节点。

2.1 Monitor

我们正式开始。首先点击Services -> Load Balancers,然后选择Monitor标签。

点击右边的+加号来添加一条记录,输入monitor的名字Name和描述Description(在这个示例名字和描述我都使用ApacheClusterMon),把类型Type设置成HTTP,主机地址Host设置一个还未使用的IP(后面我们将在这个IP上建立虚拟IP,这个虚拟IP会被分配到故障转移failover节点上,注:也有文章说把它设成WAN IP),HTTP Code保存默认的200 OK,然后点击Save保存并且使修改生效Apply Changes。

2.2 Pool

接着建立服务器池server pool。点击Pools标签的+按钮来添加一个池。

我指定ApacheSrvPool为服务池名称,设置Mode为Load Balance,端口80(。这个端口时你后端服务器的监听端口,你当然可以设定其它应用的其它端口,不一定非是web)。为这个池设定上一步创建的ApacheClusterMon,依次将你的所有web服务器IP添加到这个池中Add to pool,保存并应用。

2.3 Virtual Server

最后一步,选择Virtual Servers标签页,点击+来添加一条记录。填写名称ApacheClusterVirtualServer、描述和IP地址,这个IP地址与第1步中说的未使用的IP相同,端口80,所有发送到这个WAN IP:port的连接都会被转发到服务器池中。虚拟服务器池Virtual Server Poll选择上一步创建的。提交并应用。

搞定!最后不要忘记为虚拟服务器IP和池添加防火墙规则。

免费领取兄弟连IT教育原创linux运维工程师视频/细说linux教程,详情咨询官网客服:http://www.lampbrother.net/linux/

学PHP、Linux、HTML5、UI、Android等视频教程(课件+笔记+视频)!联系Q2430675018

时间: 2024-10-05 15:42:13

怎么用pfSense为你的web服务做负载均衡的相关文章

浅谈web应用的负载均衡、集群、高可用(HA)解决方案(转)

1.熟悉几个组件 1.1.apache     —— 它是Apache软件基金会的一个开放源代码的跨平台的网页服务器,属于老牌的web服务器了,支持基于Ip或者域名的虚拟主机,支持代理服务器,支持安 全Socket层(SSL)等等,目前互联网主要使用它做静态资源服务器,也可以做代理服务器转发请求(如:图片链等),结合tomcat等 servlet容器处理jsp.1.2.ngnix     —— 俄罗斯人开发的一个高性能的 HTTP和反向代理服务器.由于Nginx 超越 Apache 的高性能和稳

两台web服务器实现负载均衡的解决方案

写在前面:如果此文有幸被某位朋友看见并发现有错的地方,希望批评指正.如有不明白的地方,愿可一起探讨. 总体方案 平台规划拓扑图如下: 总体解决方案: 两台web服务通过DNS实现负载均衡,共享NFS服务器,通过NFS服务器共享MySQL服务器 说明:接下来将搭建DNS服务器.两台web服务器.NFS服务器以及MySQL服务器,在此过程中只给出实现过程及其步骤,望理解. 搭建DNS服务器 1.编辑主配置文件 # vim /etc/named.conf options { directory   "

浅谈web应用的负载均衡、高可用、群集

1.熟悉几个组件 1.1.apache -- 它是Apache软件基金会的一个开放源代码的跨平台的网页服务器,属于老牌的web服务器了,支持基于Ip或者域名的虚拟主机,支持代理服务器,支持安全Socket层(SSL)等等,目前互联网主要使用它做静态资源服务器,也可以做代理服务器转发请求(如:图片链等),结合tomcat等servlet容器处理jsp. 1.2.ngnix -- 俄罗斯人开发的一个高性能的 HTTP和反向代理服务器.由于Nginx 超越 Apache 的高性能和稳定性,使得国内使用

基于node开发的web应用,负载均衡的简单实践

集群(cluster)是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器. 负载均衡(Load Balance),其意思就是分摊到多个操作单元上进行执行 阿里云负载均衡 架构文档 负载均衡好处 节省成本,一个服务器性能再好也是有瓶颈的,而且性能越高的服务器成本也越大. 极大的提高了并发量和响应速度. 实践例子 学无止境网该web应用,由两个服务器一起提供的服务 实现负载均衡遇到的问题 nginx负载均衡策略

LVS-DR+keepalived 搭建web高可用负载均衡

实验环境 redhat6.5 2.6.32-431.el6.x86_64 keepalived-1.2.16版本 ipvsadm-1.26-2.el6.x86_64 所有的虚拟机  都  关闭防火墙和selinux  配置好了本地yum源 搭建要求是对LVS-DR模式的原理熟悉,先配置好LVS-DR所需的环境.这里的环境是配置VIP DIP DIP 在同一个网段,并在realserver的lo接口上做好了arp抑制.具体见后面的脚本 当keepalived和LVS结合时,注意不需要在direct

DR+keepalived实现web群集的负载均衡和高可用性

我们搭建好的Lvs-DR群集是有一台lvs调度器的,生产环境中如果调度器出现故障,整个群集将瘫痪.通过keepalived做lvs调度器的双机热备就可以很好的解决这个问题.keepalived采用VRRP虚拟路由冗余协议,以软件的方式实现Linux服务器的多机热备功能.案列拓扑:本次lvs+keepalived群集搭建需要两台nginx做的网站服务器和两台LVS负载均衡调度器.如下图IP地址规划:两台nginx分别使用172.16.16.177和172.16.16.178:两台调度器分别使用17

使用nginx 做kbmmw REST 服务的负载均衡

我们一般在云上部署REST服务.既想利用kbmmw 的方便性,又想保证系统的安全性,同时 想通过负载均衡保证服务器的健壮性.下面我们使用ubuntu+nginx 来实现以下kbmmw rest 服务器的 负载均衡. 首先在ubuntu上安装nginx 服务器. 为了方便直接使用,我们直接使用apt 安装 sudo apt-get install nginx 安装完毕后,就会自动开启web 服务. 我们运行kbmmw rest 服务器,并把REST 服务监听在8080 端口. 在ubuntu 上修

基于centos 7安装Tomcat服务及其负载均衡

一.案例分析 1.案例概述 通常情况下,一台Tomcat站点由于可能出现单点故障及无法应付过多的客户复杂多样的请求等问题,不能单独应用于生产环境下,所以需要使用负载均衡来解决这些问题. Nginx是一个非常优秀的http服务器软件,它能够支持高达50000个并发连接数的响应,拥有强大的静态资源处理能力,运行稳定,并且内存.CPU等系统资源消耗非常低.目前很多大型网站都应用Nginx服务器作为后端网站程序的反向代理及负载均衡器,来提升整个站点的负载并发能力. 开始准备工作,搭建下面的环境,为了简化

LVS+keepalived 实现web高可用负载均衡集群

1.实验环境 4台CentOS-7.5虚拟机web-1:192.168.18.103web-2:192.168.18.104keepalived-1(LVS-DR模式):192.168.18.107 keepalived-2(LVS-DR模式):192.168.18.108 vip:192.168.18.110其中keepalived和lvs安装在同一台机器,web单独一台安装客户端为:个人win10笔记本(192.168.18.102)4台虚机防火墙和selinux均已关闭 2.安装keepa