Kafka FAQ

报错如下:

Unable to read additional data from client sessionid 0x15d2c867a770006

使用的kafka自带的zookeeper,测试使用一个节点,由于config/zookeeper.properties未配置server.1=lh:2888:3888。其中lh为主机名,加上此句并重启zookeeper。

时间: 2024-10-07 06:49:37

Kafka FAQ的相关文章

如何彻底删除Kafka中的topic (marked for deletion)

工作中因为各种原因, 例如topic中消息堆积的太多,或者kafka所在磁盘空间满了等等,可能需要彻底清理一下kafka topic,那么如何彻底删除topic?方法一(配置delete.topic.enable=true)  修改kafaka配置文件server.properties, 添加delete.topic.enable=true,重启kafka,之后通过kafka命令行就可以直接删除topic  通过命令行删除topic:     ./bin/kafka-topics.sh --de

storm kafkaSpout 踩坑问题记录! offset问题!

整合kafka和storm例子网上很多,自行查找 问题描述: kafka是之前早就搭建好的,新建的storm集群要消费kafka的主题,由于kafka中已经记录了很多消息,storm消费时从最开始消费 问题解决: 下面是摘自官网的一段话: How KafkaSpout stores offsets of a Kafka topic and recovers in case of failures As shown in the above KafkaConfig properties, you

logstash升级kafka插件

Logstash 2.x版本kafka升级 V1 前言 Logstash 2.x版本output-kafka插件只支持kafka-0.8.x版本.但是工作中我们可能用到0.9.x版本的kafka.故而需要升级Logstash-output-kafka插件至3.x版本. 安装依赖包 yum -y install ruby rubygems ruby-devel gem sources --add https://ruby.taobao.org/ --remove http://rubygems.o

kafka安装以及入门demo

jdk:1.6.0_25 64位 kafka:2.9.2-0.8.2.1 kafka 官方下载地址 http://apache.fayea.com/kafka/0.8.2.1/kafka_2.9.2-0.8.2.1.tgz tar -zxvf kafka_2.9.2-0.8.2.1.tgz -C /usr/local/ && mv kafka_2.9.2-0.8.2.1 kafka cd /usr/local/kafka vi config/zookeeper.properties dat

基于cdh的Kafka配置及部署(详细,成功运行)

一.下载 http://archive.cloudera.com/kafka/parcels/2.2.0/ wget http://archive.cloudera.com/kafka/parcels/2.2.0/KAFKA-2.2.0-1.2.2.0.p0.68-el6.parcel wget http://archive.cloudera.com/kafka/parcels/2.2.0/KAFKA-2.2.0-1.2.2.0.p0.68-el6.parcel.sha1 二.校验 [[emai

kafka外部访问设置

一.broker参数 broker.id:kafka集群的唯一标识. log.dirs:kafka存储消息日志的目录,多个用逗号隔开,需要保证指定的目录有充足的磁盘空间. zookeeper.connect:必须配置,指定kafka集群注册的zookeeper集群的地址.格式是:[主机名]:端口,多个使用逗号隔开.当多个kafka集群注册到同一个zookeeper集群时,必须在末尾指定chroot(即当前kafka集群注册到zookeeper的根目录),用于 将每个kafka集群隔离开,如:lo

ranger kafka - Authorizing Kafka access over non-authenticated channel via Ranger

Authorizing Kafka access over non-authenticated channel via Ranger This section answers some questions one is likely to encounter when trying to authorize access to Kafka over non-authenticated channel. This Kafka feature is available in HDP releases

MongoDB -> kafka 高性能实时同步(采集)mongodb数据到kafka解决方案

写这篇博客的目的 让更多的人了解 阿里开源的MongoShake可以很好满足mongodb到kafka高性能高可用实时同步需求(项目地址:https://github.com/alibaba/MongoShake,下载地址:https://github.com/alibaba/MongoShake/releases).至此博客就结束了,你可以愉快地啃这个项目了.还是一起来看一下官方的描述: MongoShake is a universal data replication platform b

Kafka----Apache Kafka官网首页

Apache Kafka  是发布-订阅机制的消息系统,可以认为具有分布式日志提交功能. Fast-快速 一个单独的Kafka  broker每秒可以处理来自成千上万个客户端的数百兆字节的读写操作. Scalable-可扩展性 对于大规模系统来说,一个单独的kafka集群从设计上就实现了数据中心的功能,而且无需宕机就能提供弹性而又透明的扩展,在数据存储方式上,kafka采用了分区设计理念,它通过将数据分别存储在集群中服务器这种方式,使得集群存储能力远大于单个服务器,这样也使得消费者可以从集群中不