kafka在zookeeper上的节点信息和查看方式

kafka在Zookeeper上的节点如下图:

该图片盗自大牛的博客http://blog.csdn.net/lizhitao/article/details/23744675

服务端开启的情况下,进入客户端的命令:{zookeeper目录}/bin/zkCli.sh

以下是几个zookeeper客户端用的命令,不只kafka,其他任何注册到zookeeper的服务都可以使用这些命令。

1,ls

ls会显示该节点下的子节点信息

比如:

ls /

显示zookeeper根目录下的子节点,其中kafka的broker在zookeeper根目录注册了brokers节点(如上图)

ls /brokers/topics/BIZ_TMS2ORDERCENTER_NEW_MSG/partitions

显示BIZ_TMS2ORDERCENTER_NEW_MSG这个topic下的partitions的子节点

2,get

get命令会显示该节点的节点数据内容和属性信息

比如:

get /brokers/topics/RETURNGOODS_SYNC

显示RETURNGOODS_SYNC这个topic的节点数据内容和属性信息。

第一行大括号里面就是节点的数据内容,创建topic时候的定义的topic级别配置会被记录在这里

3,ls2

ls2命令会显示该节点的子节点信息和属性信息

比如:

ls2 /brokers/topics/RETURNGOODS_SYNC

显示RETURNGOODS_SYNC这个topic的子节点和属性信息。

第一行中括号里的是子节点。(按照上面的图,某个topic下就一个子节点partitions)

原文地址:https://www.cnblogs.com/beautiful-code/p/9257948.html

时间: 2024-10-09 14:32:07

kafka在zookeeper上的节点信息和查看方式的相关文章

小程序框架之视图层 View~获取界面节点信息

获取界面上的节点信息 WXML节点信息 节点信息查询 API 可以用于获取节点属性.样式.在界面上的位置等信息. 最常见的用法是使用这个接口来查询某个节点的当前位置,以及界面的滚动位置. 示例代码: const query = wx.createSelectorQuery() query.select('#the-id').boundingClientRect(function(res){ res.top // #the-id 节点的上边界坐标(相对于显示区域) }) query.selectV

从Zookeeper获取HDFS的Active名称节点信息

String hadoopZkNode = "/hadoop-ha/${cluster_name}/ActiveStandbyElectorLock"; ZooKeeper  keeper = new ZooKeeper(${zookeeperConnection}, 10000, new SimpleWatcher()); Stat stat = new Stat(); byte[] data = keeper.getData(hadoopZkNode, new SimpleWatc

kafka 、 zookeeper 集群(一)

一.入门 1.简介 Kafka is a distributed,partitioned,replicated commit logservice.它提供了类似于JMS的特性,但是在设计实现上完全不同,此外它并不是JMS规范的实现.kafka对消息保存时根据Topic进行归类,发送消息者成为Producer,消息接受者成为Consumer,此外kafka集群有多个kafka实例组成,每个实例(server)成为broker.无论是kafka集群,还是producer和consumer都依赖于zo

kafka 、 zookeeper 集群(二)

一.zookeeper集群安装 要求:zookeeper的 jdk 要 6以上 zookeeper生产环境版本为 3.4.8 1.首先编辑/etc/hosts在5台都加入:10.0.50.10 zk-kafka0110.0.50.11 zk-kafka0210.0.50.12 zk-kafka0310.0.50.13 zk-kafka0410.0.50.14 zk-kafka05 2.更改hostname 1.vim /etc/sysconfig/network2.hostname zk-kaf

大数据组件原理总结-Hadoop、Hbase、Kafka、Zookeeper、Spark

Hadoop原理 分为HDFS与Yarn两个部分.HDFS有Namenode和Datanode两个部分.每个节点占用一个电脑.Datanode定时向Namenode发送心跳包,心跳包中包含Datanode的校验等信息,用来监控Datanode.HDFS将数据分为块,默认为64M每个块信息按照配置的参数分别备份在不同的Datanode,而数据块在哪个节点上,这些信息都存储到Namenode上面.Yarn是MapReduce2,可以集成更多的组件,如spark.mpi等.MapReduce包括Job

Kafka 和 ZooKeeper 的分布式消息队列分析

1. Kafka 总体架构 基于 Kafka-ZooKeeper 的分布式消息队列系统总体架构如下: 如上图所示,一个典型的 Kafka 体系架构包括若干 Producer(消息生产者),若干 broker(作为 Kafka 节点的服务器),若干 Consumer(Group),以及一个 ZooKeeper 集群.Kafka通过 ZooKeeper 管理集群配置.选举 Leader 以及在 consumer group 发生变化时进行 Rebalance(即消费者负载均衡,在下一课介绍).Pro

kafka和zookeeper

1.Kafka入门教程 1.1 消息队列(Message Queue) Message Queue消息传送系统提供传送服务.消息传送依赖于大量支持组件,这些组件负责处理连接服务.消息的路由和传送.持久性.安全性以及日志记录.消息服务器可以使用一个或多个代理实例. JMS(Java Messaging Service)是Java平台上有关面向消息中间件(MOM)的技术规范,它便于消息系统中的Java应用程序进行消息交换,并且通过提供标准的产生.发送.接收消息的接口简化企业应用的开发,翻译为Java

kafka笔记-Kafka在zookeeper中的存储结构【转】

参考链接:apache kafka系列之在zookeeper中存储结构  http://blog.csdn.net/lizhitao/article/details/23744675 1.topic注册信息 /brokers/topics/[topic] : 存储某个topic的partitions所有分配信息 Schema: {    "version": "版本编号目前固定为数字1",    "partitions": {        &q

Storm在zookeeper上的目录结构

storm操作zookeeper的主要函数都定义在命名空间backtype.storm.cluster中(即cluster.clj文件中). backtype.storm.cluster定义了两个重要protocol:ClusterState和StormClusterState.clojure中的protocol可以看成java中的接口,封装了一组方法.ClusterState协议中封装了一组与zookeeper进行交互的基础函数,如获取子节点函数,获取子节点数据函数等,ClusterState