ETL作业调度软件TASKCTL4.1集群部署

熟悉TASKCTL4.1一段时间后,觉得它的调度逻辑什么的都还不错,但是感觉单机部署不太够用。想实现跨机调度作业,就要会TASKCTL的集群部署。下面就是我在网上找到的相关资料,非原创。

单机部署成功后,要在单机部署的基础上,增加3个CTL节点:1个MAgent和2个Sagent,来完成集群部署。将服务端的安装包分别上传至magent、sagent1和sagent2账户,其操作都是一样的。首先,依然是释放tar包的文件,然后进入cirinst目录,执行inst安装程序,如果是在不同机器上部署的话,需要单独的设置环境变量,和单机部署说明中的环境变量设置一样。我们以安装Magent节点为例,其他的安装操作都是一样的,只是在实例化的时候选择成不同的节点类型。

进入安装选项的界面后,这次我们选择2, 产品自定义安装,因为我们是以前面的单机部署为基础来扩充的,不再需要安装EM节点,所以,我们选择2, 产品核心-CTL节点安装。在安装过程中,依然会提示输入使用单位,这里我们和上面一样,输入taskctl。下一步提示输入CTL节点的监听端口,将其修改为不会与其他系统或软件冲突的端口号后回车,下一步提示输入本地IP地址,如非错误IP,我们就默认即可。随后确认信息,输入Y,回车,之后提示安装CTL节点成功,是否启动CTL节点的监听,选择Y,启动监听。现在我们的CTL节点就已经安装成功了,我们再次回到Windows客户端的Admin程序来实例化我们安装好的3个节点吧!

在Admin程序中,我们可以看到有一个平台节点的选项卡,我们选中它,然后,下面有节点关系图与节点信息2个选项卡,我们选中节点信息。可以看到这里已经实例化了很多节点了,当然,只有EM节点和svrnode节点是生效的。我们可以选择新增节点,也可以选择修改现有的节点来实例化我们安装好的3个节点。这里,我们选择新增节点信息来完成实例化。

设置完成后,我们回到节点关系图中,分别选中我们实例化出来的3个节点,再点击右下角的启动按钮,如果提示启动成功,则说明联机部署成功,否则的话,请检查一下你的服务器的IP以及相应的端口号了,或者是服务器上的防火墙没有开放相应的端口号。

时间: 2024-11-06 03:51:19

ETL作业调度软件TASKCTL4.1集群部署的相关文章

ETL作业调度软件TASKCTL4.1单机部署

单机部署,实际上就是将EM节点和一个Server节点安装到同一个地方.EM节点是TASKCTL服务端的最顶层,主要负责客户端与服务端之间的通信.Server节点是TASKCTL的调度服务控制层,也有Agent节点的部分功能,能够直接执行任务.下面我们来看看单机部署的过程. 先释放tar包的文件 tar vxf taskctlforlinux32_4.1.3.tar1 在安装之前,我们需要先设置好环境变量,请注意,这里是分别安装到同一台服务器的不同账户下,所以只需要在root账户下设置一次环境变量

万台规模下的SDN控制器集群部署实践

目前在网络世界里,云计算.虚拟化.SDN.NFV这些话题都非常热.今天借这个机会我跟大家一起来一场SDN的深度之旅,从概念一直到实践一直到一些具体的技术. 本次分享分为三个主要部分: SDN & NFV的背景介绍 SDN部署的实际案例 SDN控制器的集群部署方案 我们首先看一下SDN.其实SDN这个东西已经有好几年了,它强调的是什么?控制平面和数据平面分离,中间是由OpenFlow交换机组成的控制器,再往上就是运行在SDN之上的服务或者是应用.这里强调两个,控制器和交换机的接口——我们叫做南向接

OpenStack Swift集群部署流程与简单使用

转载:http://www.cnblogs.com/fczjuever/p/3224022.html 之前介绍了<OpenStack Swift All In One安装部署流程与简单使用>,那么接下来就说一说Swift集群部署吧. 1. 简介 本文档详细描述了使用两台PC部署一个小型Swift集群的过程,并给出一些简单的使用实例.本文档假定如下前提条件: 使用Ubuntu操作系统. 每台机器都运行Swift的所有服务,既是Proxy Server,又是Storage Server,用户可以向

solr 集群(SolrCloud 分布式集群部署步骤)

SolrCloud 分布式集群部署步骤 安装软件包准备 apache-tomcat-7.0.54 jdk1.7 solr-4.8.1 zookeeper-3.4.5 注:以上软件都是基于 Linux 环境的 64位 软件,以上软件请到各自的官网下载. 服务器准备 为搭建这个集群,准备三台服务器,分别为 192.168.0.2 -- master 角色192.168.0.3 -- slave 角色192.168.0.4 -- slave 角色 搭建基础环境 安装 jdk1.7 - 这个大家都会安装

storm集群部署手册

一.  准备 1.  硬件 三台装好RHEL6.7_x64的x86服务器,机器名如下 storm01 storm02 storm03 2.  软件 jdk-7u80-linux-x64.rpm apache-storm-1.0.1.zip 3.  zookeeper storm需用到zookeeper,开始安装前先安装好zookeeper,参照zookeeper集群部署手册 4.  Python storm需用到python,一般Linux都有python,这里需要python 2.6.6,如没

t持久化与集群部署开发详解

Quartz.net持久化与集群部署开发详解 序言 我前边有几篇文章有介绍过quartz的基本使用语法与类库.但是他的执行计划都是被写在本地的xml文件中.无法做集群部署,我让它看起来脆弱不堪,那是我的罪过. 但是quart.net是经过许多大项目的锤炼,走到啦今天,支持集群高可用的开发方案那是一定的,今天我就给小结下我的quartz.net开发升级过程. Quartz.net的数据库表结构 如果支持集群与持久化,单靠本机的内存和xml来保存计算任务调度的各种状态值,可想而知,是困难的.所以支持

mongodb3.0集群部署及数据迁移

本文主要介绍mongodb3.0新特性.集群部署及从mongodb2.6中数据迁移到mongodb3.0. mongodb3.0介绍 一.mongodb3.0新特性 引入了插件式存储引擎API 新增WiredTiger存储引擎 支持文档级别的锁 二.WiredTiger存储引擎特性介绍 文档级别锁 WiredTiger通过MVCC实现文档级别的并发控制,即文档级别锁.这就允许多个客户端请求同时更新一个集合内存的多个文档,再也不需要在排队等待库级别的写锁.这在提升数据库读写性能的同时,大大提高了系

Mongodb集群部署ReplicaSet+Sharding -摘自网络

网上关于三种集群方式的搭建方式很多,都是分开来介绍的.Replica Set (复制集成)主要是做主从库的,但是没法实现负载均衡的效果,真正实现这个的,是Sharding(分片集群),通过数据分布在每个分片上而实现.所以,如果只用分片,如果一个只有一个主库,那么挂了就真的挂了.所以在我尝试的集群部署采用的Replica Set+Sharding的方式.OS是Redhat_x64系统,客户端用的是Java客户端.Mongodb版本是mongodb-linux-x86_64-2.4.9.tgz. 要

HAProxy高可用负载均衡集群部署

HAProxy高可用负载均衡集群部署 基本信息: 系统平台:VMware WorkStation 系统版本: CentOS Linux release 7.2.1511 (Core) 内核版本: 3.10.0-327.el7.x86_64 集群架构: 前端:HAProxy 1.虚拟FQDN:www.simpletime.net 2.VIP:192.168.39.1:DIP:172.16.39.50 3.调度服务器:Varnish1.Varnish2 4.调度算法:URL_Hash_Consist