kafka javax.management.InstanceAlreadyExistsException: kafka.consumer:type=app-info,id=consumer-1

错误日志:

2019-10-11 17:50:48.744 WARN []-[o.a.k.clients.consumer.ConsumerConfig :173] The configuration num.replica.fetchers = 1 was supplied but isn‘t a known config.
2019-10-11 17:50:48.747 INFO []-[o.a.kafka.common.utils.AppInfoParser :82] Kafka version : 0.9.0.1
2019-10-11 17:50:48.747 INFO []-[o.a.kafka.common.utils.AppInfoParser :83] Kafka commitId : 23c69d62a0cabf06
2019-10-11 17:50:48.747 WARN []-[o.a.kafka.common.utils.AppInfoParser :59] Error registering AppInfo mbean
javax.management.InstanceAlreadyExistsException: kafka.consumer:type=app-info,id=consumer-1
at com.sun.jmx.mbeanserver.Repository.addMBean(Repository.java:437)
at com.sun.jmx.interceptor.DefaultMBeanServerInterceptor.registerWithRepository(DefaultMBeanServerInterceptor.java:1898)
at com.sun.jmx.interceptor.DefaultMBeanServerInterceptor.registerDynamicMBean(DefaultMBeanServerInterceptor.java:966)
at com.sun.jmx.interceptor.DefaultMBeanServerInterceptor.registerObject(DefaultMBeanServerInterceptor.java:900)
at com.sun.jmx.interceptor.DefaultMBeanServerInterceptor.registerMBean(DefaultMBeanServerInterceptor.java:324)
at com.sun.jmx.mbeanserver.JmxMBeanServer.registerMBean(JmxMBeanServer.java:522)
at org.apache.kafka.common.utils.AppInfoParser.registerAppInfo(AppInfoParser.java:57)
at org.apache.kafka.clients.consumer.KafkaConsumer.<init>(KafkaConsumer.java:640)

原因:kafa 分区数小于应用部署节点数

处理方式:kafka 为topic增加partition;至少大于等于应用部署节点数

命令: bin/kafka-topics.sh --alter --zookeeper 10.112.179.12:2181 --partitions 10 --topic gome

原文地址:https://www.cnblogs.com/legend-who/p/11659890.html

时间: 2024-10-08 23:35:49

kafka javax.management.InstanceAlreadyExistsException: kafka.consumer:type=app-info,id=consumer-1的相关文章

druid抛出的异常------javax.management.InstanceAlreadyExistsException引发的一系列探索

最近项目中有个定时任务的需求,定时检查mysql数据与etcd数据的一致性,具体实现细节就不说了,今天要说的就是实现过程中遇到了druid抛出的异常,以及解决的过程 异常 异常详细信息 五月 05, 2017 4:16:00 下午 com.alibaba.druid.proxy.DruidDriver warn 警告: register druid-driver mbean error javax.management.InstanceAlreadyExistsException: com.al

druid抛出异常:javax.management.InstanceAlreadyExistsException: com.alibaba.druid:type=DruidDataSource,id=xxx

参考: https://www.cnblogs.com/youzhibing/p/6826767.html 结论: 问题产生的根本原因还真是:同一实例被启动了两遍,Path为/SLBAdmin启动一次,Path为/wgp-Web启动一次, 开发过程中最好保证工程名与发布路径保证一直,避免不必要的麻烦 原文地址:https://www.cnblogs.com/moly/p/8308871.html

javax.management.InstanceNotFoundException: com.alibaba.druid:type=DruidDataSourceStat解决方案

ERROR [com.alibaba.druid.stat.DruidDataSourceStatManager] – unregister mbean errorjavax.management.InstanceNotFoundException: com.alibaba.druid:type=DruidDataSourceStatat com.sun.jmx.interceptor.DefaultMBeanServerInterceptor.getMBean--- 原因:在一台服务器上启动了

Tomcat:javax.management.InstanceNotFoundException: com.alibaba.druid:type=DruidDataSourceStat异常

问题: 在关闭tomcat时: Tomat报出一下异常:ERROR [com.alibaba.druid.stat.DruidDataSourceStatManager] – unregister mbean errorjavax.management.InstanceNotFoundException: com.alibaba.druid:type=DruidDataSourceStatat com.sun.jmx.interceptor.DefaultMBeanServerIntercept

Kafka系列之1—Kafka的总体认识

Kafka的总体认识 1.非中心的架构模型 2.基于TCP的一套Kafka通信协议 3.消息中间件&存储系统 4.存储逻辑层的高并发保证 5.isr机制降低了保证分布式一致性的代价 1. 非中心的架构模型 我们知道,在分布式系统的架构类型里,既有主从式的架构,也有非中心式的架构,像hadoop和hbase都采用了主从式的架构模型,主从式的架构优点有很多,但是主从式下为了避免单点故障而采取的各种策略使得主从式架构的优点并不那么理想,kafka作为一个分布式的消息系统,它采用了非中心式的架构模型,每

Kafka(三)-- Kafka主要参数

原文地址:http://debugo.com/kafka-params/ 1 ############################# System ############################# 2 #唯一标识在集群中的ID,要求是正数. 3 broker.id=0 4 #服务端口,默认9092 5 port=9092 6 #监听地址,不设为所有地址 7 host.name=debugo01 8 9 # 处理网络请求的最大线程数 10 num.network.threads=2

Kafka设计解析:Kafka High Availability

Kafka在0.8以前的版本中,并不提供High Availablity机制,一旦一个或多个Broker宕机,则宕机期间其上所有Partition都无法继续提供服务.若该Broker永远不能再恢复,亦或磁盘故障,则其上数据将丢失.而Kafka的设计目标之一即是提供数据持久化,同时对于分布式系统来说,尤其当集群规模上升到一定程度后,一台或者多台机器宕机的可能性大大提高,对Failover要求非常高.因此,Kafka从0.8开始提供High Availability机制.本文从Data Replic

kafka----kafka API(java版本)

Apache Kafka包含新的Java客户端,这些新的的客户端将取代现存的Scala客户端,但是为了兼容性,它们仍将存在一段时间.可以通过一些单独的jar包调用这些客户端,这些包的依赖性都比较小,同时老的Scala客户端仍会存在. 一.Producer   API 我们鼓励所有新开发都使用新的java版本producer.这个客户端是经过生产环境测试的,并且一般情况下会比先前的Scala客户端要更快而且具有更多的特性.你可以通过添加对客户端jar包的依赖来调用这个客户端,如下所示,使用mave

storm集成kafka的应用,从kafka读取,写入kafka

storm集成kafka的应用,从kafka读取,写入kafka by 小闪电 0前言 storm的主要作用是进行流式的实时计算,对于一直产生的数据流处理是非常迅速的,然而大部分数据并不是均匀的数据流,而是时而多时而少.对于这种情况下进行批处理是不合适的,因此引入了kafka作为消息队列,与storm完美配合,这样可以实现稳定的流式计算.下面是一个简单的示例实现从kafka读取数据,并写入到kafka,以此来掌握storm与kafka之间的交互. 1程序框图 实质上就是storm的kafkasp