saltstack 的web平台集群部署(3)---haproxy+keepalive+httpd 的部署

上一篇文章咱们讲到了haproxy的部署与配置

咱们这里说说如何使用keepalive和httpd来实现haproxy+keepalive+httpd  这套web架构的saltstack集群部署

首先咱们 http的部署,很简答哦,直接yum安装就完成了,但是在咱们saltstack就是用installed定义就行了。

ok,让咱们搞起。

[[email protected] http]# pwd
/srv/salt/prod/http
[[email protected] http]# cat install.sls 
include:
  - pkg.pkg-init

httpd-install:
  pkg.installed:
    - names:
      - httpd
      - httpd-devel

是不是很简单,那咱们下边弄它的启动。

[[email protected] cluster]# pwd
/srv/salt/prod/cluster
[[email protected] cluster]# cat http.sls 
include:
  - http.install

http-service:
  file.managed:
    - name: /etc/httpd/conf/httpd.conf
    - source: salt://cluster/files/httpd.conf
    - user: root
    - group: root
    - mode: 644
  service.running:
    - name: httpd
    - enable: True
    - reload: True
    - unless: netstat -lntp |awk -F ‘:‘ ‘{print $4}‘ | grep 8080

下边咱们弄keepalived的安装文件。

[[email protected] keepalived]# pwd
/srv/salt/prod/keepalived
[[email protected] keepalived]# cat install.sls 
keepalived-install:
  file.managed:
    - name: /usr/local/src/keepalived-1.2.17.tar.gz
    - source: salt://keepalived/files/keepalived-1.2.17.tar.gz
    - mode: 755
    - user: root
    - group: root
  cmd.run:
    - name: cd /usr/local/src && tar zxf keepalived-1.2.17.tar.gz && cd keepalived-1.2.17 && ./configure --prefix=/usr/local/keepalived --disable-fwmark && make && make install
    - unless: test -d /usr/local/keepalived
    - require:
      - file: keepalived-install

/etc/sysconfig/keepalived:
  file.managed:
    - source: salt://keepalived/files/keepalived.sysconfig
    - mode: 644
    - user: root
    - group: root

/etc/init.d/keepalived:
  file.managed:
    - source: salt://keepalived/files/keepalived.init
    - mode: 755
    - user: root
    - group: root

keepalived-init:
  cmd.run:
    - name: chkconfig --add keepalived
    - unless: chkconfig --list | grep keepalived
    - require:
      - file: /etc/init.d/keepalived

/etc/keepalived:
  file.directory:
    - user: root
    - group: root

不同的人,定义的方式不同,但是实现的效果是一样的。这个配置很简答,就不在这里具体描述了。附件里有安装包。

安装部分完成了,咱们下边就弄启动部分。咱们还是放到cluster目录下边

[[email protected] cluster]# pwd
/srv/salt/prod/cluster
[[email protected] cluster]# cat haproxy-outside-keepalived.sls ##为了区分是haproxy外网的配置
include:
  - keepalived.install
keepalived-server:
  file.managed:
    - name: /etc/keepalived/keepalived.conf
    - source: salt://cluster/files/haproxy-outside-keepalived.conf
    - mode: 644
    - user: root
    - group: root
    - template: jinja
    {% if grains[‘fqdn‘] == ‘test1‘ %}
    - ROUTEID: haproxy_ha
    - STATEID: MASTER
    - PRIORITYID: 150
    {% elif grains[‘fqdn‘] == ‘test2‘ %}
    - ROUTEID: haproxy_ha
    - STATEID: BACKUP
    - PRIORITYID: 100
    {% endif %}
  service.running:
    - name: keepalived
    - enable: True
    - watch:
      - file: keepalived-server

这里咱们简单的说明一下,首先这里使用了jinja模板的方式,用pillar来定义了

下边是keepalived的配置文件

[[email protected] files]# pwd
/srv/salt/prod/cluster/files
[[email protected] files]# cat haproxy-outside-keepalived.conf 
! Configuration File for keepalived
global_defs {
   notification_email {
     [email protected]
   }
   notification_email_from [email protected]
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id {{ROUTEID}}
}

vrrp_instance haproxy_ha {
state {{STATEID}}
interface eth0
    virtual_router_id 36
priority {{PRIORITYID}}
    advert_int 1
authentication {
auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
       10.0.0.11
    }
}

执行salt ‘*‘ state.sls cluster.haproxy-outside-keepalived env=prod test=true

当然最后咱们加到top里边进行定义。那就完成了。对web平台集群的部署。

[[email protected] base]# pwd
/srv/salt/base
[[email protected] base]# cat top.sls 
base:
  ‘*‘:
    - init.env_init

prod:
  ‘test[1,2]‘:
    - cluster.haproxy-outside-keepalived
    - cluster.haproxy-outside
    - cluster.http
[[email protected] base]# salt ‘*‘ state.highstate test=true

时间: 2024-10-10 06:27:19

saltstack 的web平台集群部署(3)---haproxy+keepalive+httpd 的部署的相关文章

saltstack 的web平台集群部署(2)---haproxy的部署

上篇文章讲了saltstack的初始化基础安装. 咱们在这里讲讲项目的部署.咱们以haproxy+keepalive+httpd 来实现web平台的集群部署. 1. 部署yum安装环境 这个安装环境是除了上一节初始化之外的yum安装包 [[email protected] pkg]# pwd/srv/salt/prod/pkg[[email protected] pkg]# cat pkg-init.sls pkg-init:  pkg.installed:    - names:      -

Web服务器集群搭建

前言:本文记述了搭建一个小型web服务器集群的过程,由于篇幅所限,系统.软件的安装和基本配置我这里就省略了,只记叙关键配置和脚本内容.假如各位朋友想了解各软件详细配置建议查阅官方文档. 一 需求分析: 1.整体需求:搭建一个高可用的网站服务器集群,能承受高并发请求,能抵御一般的网络攻击,任何一台服务器的退服不影响整个集群的运作,并且能对各服务器的运行情况作出实时监控. 2.详细需求分析: 根据需求,计划根据以下拓扑搭建运行环境: 二 详细功能描述: 1.前端服务器采用nginx实现反向代理和负载

keepalived实现WEB服务集群的高可用负载均衡

要求:利用keepalived实现WEB服务集群的高可用负载均衡,即在lvs_dr模型中扮演director的角色,对来自用户的请求按照一定的算法分配至后端服务器中:且keepalived服务器可实现高可用. keepalived是vrrp协议的一种实现,专门为lvs设计,以实现对lvs高可用就集群中的dirctor进行冗余以及对realserver进行健康检测.当一台主机(MASTER)出现问题后,keepalived能够将VIP自动的分配到备用的主机上(BACKUP),从而实现了自身(dir

keepalived+nginx+tomcat搭建高性能web服务器集群

使用keepalived+nginx+tomcat搭建高性能web服务器集群,系统采用centos6.9,前端用nginx做反向代理实现负载均衡,同时结合keepalived对nginx实现高可用,后端使用两台tomcat做动态jsp解析,实现了动静分离. 搭建环境 准备四台服务器 vip: 192.168.75.130master: 192.168.75.131 (安装nginx做反向代理实现负载匀衡,结合keepalived实现高可用)backup: 192.168.75.132 (同上)w

ipvsadm命令及lvs-nat类型web服务器集群

1.管理集群服务 (1)创建或修改 ipvsadm -A|E -t|u|f service-address [-s scheduler] -A 添加 -E 修改 -t 承载的应用层协议为基于TCP协议提供服务的协议,其server-address的格式为"VIP:PORT",如172.16.100.6:80 -u 承载的应用层协议为基于UDP协议提供服务的协议,其server-address的格式为"VIP:PORT",172.16.100.6:53 -f 承载的应

keepalived结合nginx状态检测脚本实现对web服务器集群的高可用

实验环境 两台CentOS-7.5虚拟机web1:10.0.11.203web2:10.0.11.204VIP :10.0.11.210web类型:nginx客户端:自用笔记本(win10)nginx状态检测脚本:ck_nginx.sh 实验一.使用keepalived简单实现web集群的高可用功能 1.准备两台web服务器 1)web1网卡情况[[email protected] ~]# [[email protected] ~]# ip a 2)web2网卡情况[[email protect

spark集群与spark HA高可用快速部署 spark研习第一季

1.spark 部署 标签: spark 0 apache spark项目架构 spark SQL -- spark streaming -- MLlib -- GraphX 0.1 hadoop快速搭建,主要利用hdfs存储框架 下载hadoop-2.6.0,解压,到etc/hadoop/目录下 0.2 快速配置文件 cat core-site.xml <configuration> <property> <name>fs.defaultFS</name>

大型网站系统架构实践(六)深入探讨web应用集群Session保持

原理 在第三,四篇文章中讲到了会话保持的问题,而且还遗留了一个问题,就是会话保持存在单点故障, 当时的方案是cookie插入后缀,即haproxy指负责分发请求,应用服务自行保持用户会话,如果应 用服务器宕机,则session会丢失. 现在来温习下解决方案 方案1:session复制 原理 就是将1台服务器的session复制到其它所有的服务器上,这样无论访问哪台服务器,都会得到用户 的session 优点 不存在单点故障问题 缺点 当服务器的数量比较大时,session同步将会变得相当耗时 方

Nginx+Keeplived+Tomcat搭建高可用/负载均衡的web服务器集群

一.集群规划 服务器角色 主机名 IP地址/VIP 软件 Nginx Master NK1 20.0.20.101/20.0.20.100 Nginx/Keepalived Nginx Backup NK2 20.0.20.102/20.0.20.100 Nginx/Keepalived Web Server NK3 20.0.20.103 Tomcat Web Server NK4 20.0.20.104 Toncat #关闭selinux和firewall #软件版本为:apache-tom