zookeeper、kafka、storm install

安装顺序 zookeeper,kafka,storm

install zookeeper

1.上传tar包,解压tar

tar -zxvf   zookeeper-3.4.6.tar.gz

2.复制 zoo_sample.cfg  重命名 zoo.cfg

cp zoo_sample.cfg  zoo.cfg

3.修改zoo.cfg配置文件

dataDir = /usr/local/zk/datadir

dataLogDir = /usr/local/zk/datalogdir

创建目录 /usr/local/zk/datadir , /usr/local/zk/datalogdir

注:/usr/local/ 是我的解压zookeeper存放位置,要根据你的zookeeper目录配置

接着添加zk集群IP地址

4.进入datadir,创建文件myid,并进行编号

5.启动zookeeper,查看日志是否启动成功

bin/zkServer.sh start

tail -f  zookeeper.out

install kafka

1.上传tar包,解压tar包

tar -zxvf  kafka_2.11-0.10.1.0.tgz

2.修改配置文件server.properties

border.id=1   //按顺序进行编号

host.name=192.168.10.2   //当前节点IP

log.dirs=/usr/local/kafka/log   //最好指向解压后的kafka目录内部,方便查看

zookeeper.connect=192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181  //zookeeper集群IP:PORT

delete.topic.enable=true

注:把kafka复制到其他节点后,记得修改server.properties中的broker.id和host.name的值。

3.启动各个节点kafka

nohup bin/kafka-server-start.sh config/server.properties  2>&1 &

4.基本操作

创建主题

bin/kafka-topics.sh --create --zookeeper 192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181 --replication-factor 1 --partitions 1 --topic test

描述主题

bin/kafka-topics.sh --describe --zookeeper 192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181  --topic test

删除主题

bin/kafka-topics.sh --delete --zookeeper 192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181  --topic test

生产者

bin/kafka-console-producer.sh --broker-list 192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181 --topic test

消费者

bin/kafka-console-consumer.sh --zookeeper 192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181 --topic test  --from-beginning

查看消费进度

bin/kafka-run-class.sh   kafka.tools.ConsumerOffsetChecker   --zookeeper  192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181  --topic test-group group1

install storm

1.上传tar包,解压tar包

tar -zxvf  storm-1.0.2.tar.gz

2.修改配置文件 conf/storm.yaml

3.启动命令

启动nimbus

nohup bin/storm nimbus >storm.out  2>&1  &    //在主节点上启动

启动supervisor

nohup bin/storm supervisor >storm.out  2>&1  &   //在从节点上启动

启动ui

nohup bin/storm ui >storm.out  2>&1  &  //集群任一节点启动

至此安装完成

时间: 2024-10-11 03:32:04

zookeeper、kafka、storm install的相关文章

开源日志系统比较:scribe、chukwa、kafka、flume

1. 背景介绍 许多公司的平台每天会产生大量的日志(一般为流式数据,如,搜索引擎的pv,查询等),处理这些日志需要特定的日志系统,一般而言,这些系统需要具有以下特征: (1) 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦: (2) 支持近实时的在线分析系统和类似于Hadoop之类的离线分析系统: (3) 具有高可扩展性.即:当数据量增加时,可以通过增加节点进行水平扩展. 本文从设计架构,负载均衡,可扩展性和容错性等方面对比了当今开源的日志系统,包括facebook的scribe,apac

scribe、chukwa、kafka、flume日志系统对比

scribe.chukwa.kafka.flume日志系统对比 1. 背景介绍许多公司的平台每天会产生大量的日志(一般为流式数据,如,搜索引擎的pv,查询等),处理 这些日志需要特定的日志系统,一般而言,这些系统需要具有以下特征:(1) 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦:(2) 支持近实时的在线分析系统和类似于Hadoop之类的离线分析系统:(3) 具有高可扩展性.即:当数据量增加时,可以通过增加节点进行水平扩展. 本文从设计架构,负载均衡,可扩展性和容错性等方面对比了当今开

大数据组件原理总结-Hadoop、Hbase、Kafka、Zookeeper、Spark

Hadoop原理 分为HDFS与Yarn两个部分.HDFS有Namenode和Datanode两个部分.每个节点占用一个电脑.Datanode定时向Namenode发送心跳包,心跳包中包含Datanode的校验等信息,用来监控Datanode.HDFS将数据分为块,默认为64M每个块信息按照配置的参数分别备份在不同的Datanode,而数据块在哪个节点上,这些信息都存储到Namenode上面.Yarn是MapReduce2,可以集成更多的组件,如spark.mpi等.MapReduce包括Job

rabbitMQ、activeMQ、zeroMQ、Kafka、Redis 比较

Kafka作为时下最流行的开源消息系统,被广泛地应用在数据缓冲.异步通信.汇集日志.系统解耦等方面.相比较于RocketMQ等其他常见消息系统,Kafka在保障了大部分功能特性的同时,还提供了超一流的读写性能. 针对Kafka性能方面进行简单分析,相关数据请参考:https://segmentfault.com/a/1190000003985468,下面介绍一下Kafka的架构和涉及到的名词: Topic:用于划分Message的逻辑概念,一个Topic可以分布在多个Broker上. Parti

flume、kafka、storm常用命令

出自:http://my.oschina.net/jinp/blog/350293 一些常用命令: storm相关: storm nimbus >/dev/null 2>&1 & storm supervisor >/dev/null 2>&1 & storm ui >/dev/null 2>&1 & 关闭storm ps -ef|grep apache-storm-0.9.2-incubating|grep -v gre

SpringBoot整合Kafka和Storm

前言 本篇文章主要介绍的是SpringBoot整合kafka和storm以及在这过程遇到的一些问题和解决方案. kafka和storm的相关知识 如果你对kafka和storm熟悉的话,这一段可以直接跳过!如果不熟,也可以看看我之前写的博客.一些相关博客如下. kafka 和 storm的环境安装 地址:http://www.panchengming.com/2018/01/26/pancm70/ kafka的相关使用 地址:http://www.panchengming.com/2018/01

84课:StreamingContext、DStream、Receiver深度剖析

StreamingContext.DStream.Receiver深度剖析 本课分成四部分讲解,第一部分对StreamingContext功能及源码剖析:第二部分对DStream功能及源码剖析:第三部分对Receiver功能及源码剖析:最后一部分将StreamingContext.DStream.Receiver结合起来分析其流程. 一.StreamingContext功能及源码剖析: 1.  通过Spark Streaming对象jssc,创建应用程序主入口,并连上Driver上的接收数据服务

第84课:StreamingContext、DStream、Receiver深度剖析

本课分成四部分讲解,第一部分对StreamingContext功能及源码剖析:第二部分对DStream功能及源码剖析:第三部分对Receiver功能及源码剖析:最后一部分将StreamingContext.DStream.Receiver结合起来分析其流程. 一.StreamingContext功能及源码剖析: 1.  通过Spark Streaming对象jssc,创建应用程序主入口,并连上Driver,接收数据服务端口9999写入源数据 2.  Spark Streaming的主要功能有:

第84讲:StreamingContext、DStream、Receiver深度剖析

本课分成四部分讲解,第一部分对StreamingContext功能及源码剖析:第二部分对DStream功能及源码剖析:第三部分对Receiver功能及源码剖析:最后一部分将StreamingContext.DStream.Receiver结合起来分析其流程. 一.StreamingContext功能及源码剖析: 1.  通过Spark Streaming对象jssc,创建应用程序主入口,并连上Driver上的接收数据服务端口9999写入源数据: 2.  Spark Streaming的主要功能有