集群停止以及启动

一:停止

1.概述

  关于strom没有停止命令

2.第一种方式(kill)

  jps之后

  使用kill -9 pid

3.第二种方式(书写脚本)

4.先新建supervisorHost 

5.书写脚本

  

 1 #!/bin/bash
 2
 3 STORM_HOME=/etc/opt/modules/storm-0.9.6
 4
 5 #1.停止本机上的nimbus和ui进程
 6
 7 kill -9 `ps -ef | grep daemon.nimbus | awk ‘{print $2}‘|head -n 1`
 8 kill -9 `ps -ef | grep ui.core | awk ‘{print $2}‘|head -n 1`
 9
10
11
12 #2.停止supervisor节点上的supervisor和logviewer进程
13
14 supervisorHost=${STORM_HOME}/bin/supervisorHost
15 supervisors=$(cat $supervisorHost)
16
17 for supervisor in $supervisors
18 do
19     echo "stop supervisor and logviewer in $supervisor"
20     ssh $supervisor "kill -9 `ssh $supervisor ps -ef | grep daemon.supervisor | awk ‘{print $2}‘|head -n 1`" >/dev/null 2>&1
21     ssh $supervisor "kill -9 `ssh $supervisor ps -ef | grep daemon.logviewer | awk ‘{print $2}‘|head -n 1`" >/dev/null 2>&1
22 done

二:启动

1.正常命令启动

2.新建supervisorHost

  方便寻找supervisor的pid

  

3.书写脚本

  

 1 #!/bin/bash
 2
 3
 4 STORM_HOME=/etc/opt/modules/storm-0.9.6
 5 #1.在本机上启动nimbus和ui进程
 6
 7 nohup ${STORM_HOME}/bin/storm nimbus >/dev/null 2>&1 &
 8 nohup ${STORM_HOME}/bin/storm ui >/dev/null 2>&1 &
 9
10 #2.在指定作为Supervisor的服务器上启动supervisor和logviewer
11
12 supervisorHost=${STORM_HOME}/bin/supervisorHost
13 supervisors=$(cat $supervisorHost)
14
15 for supervisor in $supervisors
16 do
17     echo "start supervisor and logviewer in $supervisor"
18     ssh $supervisor "source /etc/profile && nohup ${STORM_HOME}/bin/storm supervisor >/dev/null 2>&1" >/dev/null 2>&1 &
19     ssh $supervisor "source /etc/profile && nohup ${STORM_HOME}/bin/storm logviewer >/dev/null 2>&1" >/dev/null 2>&1 &
20 done
时间: 2024-10-10 10:50:10

集群停止以及启动的相关文章

4.Hadoop集群搭建之启动

配置好Hadoop.HDFS.YARN.Zookeeper集群后,需要按照顺序启动. 前期准备 配置好Hadoop.HDFS.YARN.Zookeeper集群 先stop掉所有的hadoop服务 使用jps命令查看进程,确保只有Jps进程存在,没有其他的Hadoop服务进程.若存在Hadoop服务进程,使用命令kill -9 进程id来关闭进程. 1. 启动zookeeper集群(分别在master.slave1.slave2上启动zk) 在~/zookeeper-3.4.5/bin/下执行 .

ZooKeeper单机伪集群搭建与启动

下载解压 [[email protected] ~]$ tar -zvxf zookeeper-3.4.9.tar.gz 本机ip地址映射 [[email protected] /]$ su - rootPassword: Last login: Sat Aug 4 18:59:38 EDT 2018 on :0 [[email protected] ~]# cd /etc [[email protected] etc]# vim hosts 将本机ip映射为一个主机名,在zoo.cfg中可用这

HDFS格式化namenode后启动集群datanode不启动

这是因为格式化namenode之后,namenode节点中VERSION的ClusterID会改变!!! 解决办法: 1.打开namenode节点的hdfs-site.xml文件,查看你的namenode的元数据存储位置和datanode数据存储位置: 2.然后到对应的的目录下找到VERSION文件: 3.打开namenode的VERSION文件,复制其中的ClusterID,粘贴到所有datanode节点VERSION文件的ClusterID后,再次启动集群即可! 原文地址:https://w

zookeeper集群配置与启动——实战

1,准备: A:三台linxu服务器: 10.112.29.177 10.112.29.172 10.112.29.174 命令 hostname 得到每台机器的 hostname vm-10-112-29-177 vm-10-112-29-172 vm-10-112-29-174 分别创建 /opt/zookeeper/server1/data /opt/zookeeper/server1/dataLog /opt/zookeeper/server2/data /opt/zookeeper/s

zookeeper在windows下的伪集群安装和启动

Windows下安装 把下载的zookeeper的文件解压到指定目录 E:\Program\zookeeper-3.4.6 修改conf下增加zoo1.cfg,zoo2.cfg,zoo3.cfg # The number of milliseconds of each tick tickTime=2000 # The number of ticks that the initial  # synchronization phase can take initLimit=10 # The numb

Redis集群_4.redis 启动脚本

Redis启动脚本: # vi /etc/init.d/redis #!/usr/bin/env bash # # redis start up the redis server daemon # # chkconfig: 345 99 99 # description: redis service in /etc/init.d/redis # chkconfig --add redis or chkconfig --list redis # service redis start or ser

Zookeeper集群搭建zookeeper01启动不成功解决方案

查看zookeeper整体启动,zookeeper02,03都启动成功,却只有zookeeper01不起来,纠结了3个小时,重新配置两次,最后发现2181端口被其他进程霸占了,坑啊!!!!! zookeeper01 状态 使用 netstat -atunlp | grep 2181 查看是否霸占进程 发现进程号为2818的java程序霸占了 杀死进程2818 重新启动zookeeper01 启动成功了,功夫不负有心人,继续努力....... 原文地址:https://www.cnblogs.co

大数据 时间同步问题 解决hbase集群节点HRegionServer启动后自动关闭

1)在hbase-site.xml文件中 修改增加 ,将时间改大点<property><name>hbase.master.maxclockskew</name><value>150000</value></property>2)修改系统时间,将时间改为一致(建议采用本方法):修改日期date -s 08/20/2016修改时间date -s 15:14:00检查硬件(CMOS)时间clock -r将系统时间写入CMOSclock -

Spark集群无法停止的原因分析和解决

今天想停止spark集群,发现执行stop-all.sh的时候spark的相关进程都无法停止.提示: no org.apache.spark.deploy.master.Master to stop no org.apache.spark.deploy.worker.Worker to stop 上网查了一些资料,再翻看了一下stop-all.sh,stop-master.sh,stop-slaves.sh,spark-daemon.sh,spark-daemons.sh等脚本,发现很有可能是由