Master-Slave分布式部署的实现

分布式自动化测试设计思路

在ZKBioSecurity3.0系统自动化测试过程中,由于授权模块需要经常更改授权点数以及系统时间,不适合于与其它的流程置于同一台服务器上运行,因此萌生构建一次部署到多台服务器的想法。此举既可以解决目前的资源影响问题,也可以为后继的分布式执行自动化脚本做铺垫。Jenkins支持”master/slave”模式,相当于Server和Agent的概念。Master提供Web接口让用户来管理job和slave,job可以运行在master本机或者被分配到slave上运行。一个master可以关联多个slave用来为不同的job或相同的job的不同配置来服务。

一、创建SLAVE节点具体步骤。

1. 配置slave

(1)进入Jenkins找到“系统管理”

(2)进入Jenkins系统管理页面找到“管理节点”

(3)在节点管理菜单中找到“新建节点”

(4)在新建节点页面中输入节点名称,选择Dumb Slave

# of executors : 是可以同时build的进程数

远程工作目录:这个是远程机器上用于放置Jenkins工作目录的位置

用法:选择只允许运行绑定到这台机器的Job

启动方法:windows下选择Launch slave agents via Java Web Start比较方便

保存后可以在节点列表下看到这个新建的节点

2. 启动Slave子服务器

在Slave子服务器所在的机器上访问http://%host%/%port%/jenkins(http://192.168.1.41:8080/jenkins)进入到上文提到的节点列表,可以看到一个Launch 按钮,点击下载jnpl到本地

如果连接成功会如图所示,显示出Connected。

如果你想把slave作成服务随系统启动,那么可以使用File à Install as a service工具

点击确定安装,安装完成之成会在服务里多一个jenkinsslave-*的服务

3. 关联JobSlave

在项目配置中勾选 Restrict where this project can be run ,在Label Expression 输入前面Slaver 标签名称。

然后就可以在节点的标签页中看到这个job了

二、创建Project,并进行配置。

1、创建一个自由风格软件项目

2、配置project

3、命令解释

net stop BioSecurityTomcat

关闭Tomcat服务

cd "D:\Program Files (x86)\ZKBioSecurity\MainResource\tomcat\webapps"

进到ZKBioSecurity应用部署的目录下

rd /s/q ROOT

删除ROOT文件夹

cd d:\jenkins\ftpclient

进到ftpclient目录下

java –jar zkupload-1.1.jar

"D:\Program Files (x86)\ZKBioSecurity\MainResource\tomcat\webapps"

执行java方法下载Master编译好的war到Slave上,参数是Slave上的Tomcat webapps的路径

net start BioSecurityTomcat

启动Tomcat目录

4ZKBioSecurity_Web中也需要进行配置,对其进行触发。

时间: 2024-10-05 06:40:59

Master-Slave分布式部署的实现的相关文章

RocketMQ多Master多Slave模式部署

每个 Master 配置一个 Slave,有多对Master-Slave,HA采用同步双写方式,主备都写成功,向应用返回成功. 优点:数据与服务都无单点,Master宕机情况下,消息无延迟,服务可用性与数据可用性都非常高.缺点:性能比异步复制模式略低,大约低10%左右,发送单个消息的RT会略高.目前主宕机后,备机不能自动切换为主机,后续会支持自动切换功能. ### 先启动 NameServer### 在机器 A,启动第一个 Master### 在机器 B,启动第二个 Master### 在机器

Apache Spark探秘:三种分布式部署方式比较

目前Apache Spark支持三种分布式部署方式,分别是standalone.spark on mesos和 spark on YARN,其中,第一种类似于MapReduce 1.0所采用的模式,内部实现了容错性和资源管理,后两种则是未来发展的趋势,部分容错性和资源管理交由统一的资源管理系统完成:让Spark运行在一个通用的资源管理系统之上,这样可以与其他计算框架,比如MapReduce,公用一个集群资源,最大的好处是降低运维成本和提高资源利用率(资源按需分配).本文将介绍这三种部署方式,并比

windows下hadoop的集群分布式部署

下面我们进行说明一下hadoop集群的搭建配置. 本文假设读者具有hadoop单机配置的基础,相同的部分不在重述. 以三台测试机为例搭建一个小集群,三台机器的ip分别为 192.168.200.1;192.168.200.2;192.168.200.3 cygwin,jdk的安装同windows下hadoop的单机伪分布式部署(1),这里略过. 1.配置 hosts 在三台机子的hosts文件中加入如下记录: 192.168.200.1 hadoop1  #master namenode 192

ActiveMQ伪分布式部署

本文借鉴http://www.cnblogs.com/guozhen/p/5984915.html,在此基础上进行了完善,使之成为一个完整版的伪分布式部署说明,在此记录一下! 一.本文目的 介绍如何在同一台虚拟机上搭建高可用的Activemq服务,集群数量包含3个Activemq,当Activemq可用数>=2时,整个集群可用. 本文Activemq的集群数量为3个,分别命名为mq1,mq2,mq3   二.概念介绍 1.伪集群 集群搭建在同一台虚拟机上,3个Activemq分别使用不同的端口提

Hadoop1.0.4+Hbase0.94.2+Hive0.9.0 分布式部署安装

因为个人太懒,所以很多配图没有上传,完整的部署安装教程另外备份了.这里记录一下防止文档丢了   Hadoop1.0.4+Hbase0.94.2+Hive0.9.0 分布式部署安装 目录 1 服务器配置 2 Hadoop安装 3 Hbase安装 4 Hive安装 版本控制信息 版本 日期 拟稿和修改 说明 1.0 2012-11-27 Yoan.Liang 报文标准初稿(内部版本:1000) 1       服务器配置 1.1    下载安装JDK 1.2    修改NameNode与DataNo

Spark的三种分布式部署

目前Apache Spark支持三种分布式部署方式: 分别是standalone.spark on mesos和 spark on YARN, 其中,第一种类似于MapReduce 1.0所采用的模式,内部实现了容错性和资源管理,后两种则是未来发展的趋势, 部分容错性和资源管理交由统一的资源管理系统完成:让Spark运行在一个通用的资源管理系统之上,这样可以与 其他计算框架,比如MapReduce,公用一个集群资源,最大的好处是降低运维成本和提高资源利用率(资源按需 分配).本文将介绍这三种部署

Hadoop2 伪分布式部署

一.简介 二.安装部署 三.运行hadoop例子并测试部署环境 四.注意的地方 一.简介 Hadoop是一个由Apache基金会所开发的分布式系统基础架构,Hadoop的框架最核心的设计就是:HDFS和MapReduce.HDFS为海量的数据提供了存储,HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上:而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序.HDFS放宽了(relax)

windows下hadoop的单机伪分布式部署(3)

下面介绍myeclipse与hadoop的集成. 我用的myeclipse版本是8.5. 1.安装hadoop开发插件 在hadoop1.2.1版本的安装包contrib/目录下,已经不再提供hadoop-eclipse-pligin-1.2.1.jar; 而是提供了源代码文件,需要我们自行重新编译成jar包文件:这里方便,大家可以从这里下载: hadoop-eclipse-plugin-1.2.1.jar.pdf 由于博客上传文件的类型限制,故添加了pdf后缀,下载之后重命名,去掉".pdf&

Windows下搭建MySQL Master Slave

转:http://www.cnblogs.com/gaizai/p/3248207.html http://www.cnblogs.com/gaizai/archive/2013/03/15/2961868.html   MySQL表数据迁移自动化 http://www.cnblogs.com/gaizai/archive/2012/10/23/2735556.html  Ubuntu10下MySQL搭建Master Slave 一.背景 服务器上放了很多MySQL数据库,为了安全,现在需要做M