SaltStck 搭建Web集群-Job 管理

在SaltStack默认的工作模式中,minion端会将数据直接返回给mysql数据库,这个过程中不需要master参与。由于提供更加灵活的管理,也可以在master端保存minion端的执行结果(job cache),master 端默认的保存地址是: /var/cache/salt/master/jobs。

job cache 在master端的配置文件中有对应的配置参数:

#cachedir: /var/cache/salt/master   保存的路径

#keep_jobs: 24    保存的时间24小时

配置Job cache直接写入数据库

可以通过过配置,直接将master端的cache写入数据库。

job cache默认的表结构和salt数据库的表结构相同,不过要是想和数据库的交互,需要在master端安装MySQL-python:

yum install MySQL-python -y

修改master的配置文件,在最后直接加上mysql的配置:

# vim /etc/salt/master
master_job_cache: mysql
mysql.host: ‘172.16.10.60‘
mysql.user: ‘salt‘
mysql.pass: ‘saltpw‘
mysql.db: ‘salt‘
mysql.port: 3306

重启salt-master:

# systemctl  restart salt-master

在master端执行:

# salt ‘*‘ test.ping

如果没有任何报错,说明执行成功,可以在mysql中查看数据是否写入:

MariaDB [salt]> use salt;select * from salt_returns\G

每执行一次,就会生成两条记录(两个minion).

这样,每次执行的job cache都会返回到数据库中。

salt 常用的管理命令:

# salt-run  jobs.list_jobs 查看历史执行的salt job-cache任务,从目录中去查询,而不是从数据库。

# salt-run jobs.lookup_jid 20161124144637116519  查看某个任务的执行结果

查看当前minion的状态:

# salt-run manage.status

查看处于down状态的minion:

# salt-run manage-down

查看处于up状态的minion:

# salt-run manage-up

查看版本信息:

# salt-run manage.versions

时间: 2024-10-14 16:01:49

SaltStck 搭建Web集群-Job 管理的相关文章

SaltStck 搭建Web集群运用示例 (二)

在上一篇文章中,我们了解了saltstack搭建Web集群的基础环境以及haproxy的部署,这里我们将想继续了解一下其他的web服务如何通过saltstack部署起来. 参考资料:https://github.com/unixhot/saltbook-code SaltStack部署keepalived 编写安装配置sls文件 在keepalived目标编写install.sls: [[email protected] /srv/salt/prod/modules/keepalived]# c

SaltStck 搭建Web集群运用示例 (一)

saltstack是一个非常强大的管理工具,使用saltstack会做到标准化的管理,下面就以一个简单的示例来更加具体的了解一下saltstack的功能特性. 使用saltstack来搭建一个简单的web集群,需要完成三个步骤: 1.系统初始化.初始化模块所有的机器环境一致. 2.功能模块:设置单独的目录haproxy nginx  php mysql  memcached. 功能模块做到尽可能的全,独立. 3.业务模块:根据业务类型划分,如web服务.论坛bbs等 Base基础环境的配置 sa

Linux网络服务--LAMP+Nginx+Squid搭建web集群

一.         项目名称         LAMP+Nginx+Squid搭建web集群环境 二.         项目拓扑 三.         项目描述 3.1 项目环境 某部队为了满足信息化政治工作建设需要,用以丰富官兵日常生活内容,活化教育形式,更好的建设部队人文环境,准备架设部队内部的网站服务器,并申请使用军内公网IP:1.1.1.1 基于以上情况为该部提出以下解决方案.   3.2 实施方案 3.2.1  服务器操作系统与软件版本选择 操作系统选择RedHat企业版5.10:

Linux下使用Apache的Httpd+Mod_jk+Tomcat搭建Web集群服务

Linux下使用Apache的Httpd+Mod_jk+Tomcat搭建Web集群服务 目的 ?? 使用多个tomcat服务器来对请求进行分流,防止单个服务器压力过重.这里为了简单,只使用两个tomcat. 软件 apache httpd-2.2.31(下载地址:https://httpd.apache.org/download.cgi) apache tomcat-7.0.69(下载地址:https://tomcat.apache.org/download-70.cgi) tomcat-con

Haproxy搭建web集群

Haproxy搭建web集群重点内容1:1.四层负载均衡:1)DNS轮询:将同一个域名解析为多个不同的ip地址实现负载均衡.2)Nginx负载均衡:通过定义upstream 组名 {server ip:port weight=权重;-}后端服务,然后通过proxy_pass http://组名实现负载均衡.3)LVS负载均衡:通过ipvsadm定义VIP(集群IP)和real server(后端服务器)调用linux内核(kernel)模块ip_vs实现负载均衡.2.haproxy负载均衡:通过

linux服务器 Haproxy搭建Web集群环境实例

操作系统:CentOS 6.5   Haproxy软件版本:haproxy-1.4.24  Nginx软件版本:nginx-1.6.2 Haproxy是目前比较流行的一种集群调度工具,之前提到Nginx的upstream模块也能实现集群的负载均衡,但是Nginx不能对节点进行健康检查,性能也没有Haproxy好 负载均衡常用的调度算法:RR(Round Robin)轮询调度.LC(Least Connections)最小连接数和SH(Source Hashing)基于来源的访问调度 案例拓扑图:

负载均衡下,WEB集群session管理

    通常状况下,在部署项目时,我们会考虑访问量过高带来的一系列问题,解决这个问题的一种做法是,使用WEB集群来分布式部署项目,即负载均衡.负载均衡可以通过软件,硬件等多种方式去实现.下面说说这个方法的区别.       软件实现的负载均衡:这一类的软件常用的有nginx,这里也可以将nginx看做成一个网关,通常一个nginx最多可以配置6个tomcat.nginx实现原理就是在中间层作为一个网关,然后地址转发到不同的tomcat(注:每个tomcat都拥有一个唯一的端口号).优点是性价比高

使用Haproxy搭建web集群

环境: 代理haproxy:192.168.100.155 后台nginx:192.168.100.153-154 1.安装nginx服务器:(192.168.100.153) yum -y install pcre-devel zlib-devel wgetftp://ftp.linuxfan.cn/tools/nginx-1.6.0.tar.gz tar zxvf nginx-1.6.0.tar.gz -C /usr/src/ cd /usr/src/nginx-1.6.0 useradd

每秒处理3百万请求的Web集群搭建-用 LVS 搭建一个负载均衡集群

这篇文章是<打造3百万次请求/秒的高性能服务器集群>系列的第3部分,有关于性能测试工具以及优化WEB服务器部分的内容请参看以前的文章. 本文基于你已经优化好服务器以及网络协议栈的基础之上,并使用 iperf 与 netperf 工具测试将服务器已优化到支持 500,000 次/秒的静态WEB页面的性能. 现在你已经做好足够准备进行安装服务器集群. Redhat 官网已经有一些不错的文章,所以我建议你在遇到不明白的问题时查看一下这些文章.不过你先别担心,我接下会一步步地讲解群集搭建的所有操作.