kafka扩容

需求:

对全kafka集群中的topic  :imp-imps-app-web增加partition和replicate

1.kafka 扩容

首先按照搭建步骤,在其他机器上搭建集群,kafka的配置文件中 zkconnect 要保持与原kafka一致

2.验证kafka新节点是否加入集群成功,这个应该去zookeeper的zkCli.sh 去查看

[zk: localhost:2181(CONNECTED) 3] ls /kafka/brokers/ids

[27, 28, 29]

3.创建了一个topic

[[email protected] bin]# ./kafka-topics.sh --create --zookeeper 10.0.150.27:2181/kafka --replication-factor 1 --partitions 1 --topic imp-imps-app-web

2.列出所有topic

./kafka-topics.sh --list --zookeeper 10.0.150.27:2181/kafka

3.修改了partiton数量

./kafka-topics.sh --zookeeper 10.0.150.27:2181/kafka --alter --topic imp-imps-app-web --partitions 3

4.查看一个topic的所有详细信息

bin/kafka-topics.sh --describe --zookeeper 10.0.150.27:2181/kafka --topic mmm

Topic:eee PartitionCount:3 ReplicationFactor:1 Configs:

Topic: eee Partition: 0 Leader: 37 Replicas: 37 Isr: 37

Topic: eee Partition: 1 Leader: 37 Replicas: 37 Isr: 37

Topic: eee Partition: 2 Leader: 38 Replicas: 38 Isr: 38

5.

在当前目录创建一个json文件

reassignment-node.json

vim imp-imps-app-web.json

加入内容:

{

"partitions": [

{

"topic": "imp-imps-app-web",

"partition": 0,

"replicas": [

27,

28,

29

]

},

{

"topic": "imp-imps-app-web",

"partition": 1,

"replicas": [

27,

28,

29

]

}

]

}

6.修改replicas

./kafka-reassign-partitions.sh --zookeeper 10.0.150.27:2181/kafka --reassignment-json-file imp-imps-app-web.json  --execute

7.验证

./kafka-topics.sh --describe --zookeeper 10.0.150.34:2181/kafka --topic imp-imps-app-web

Topic:imp-imps-app-web PartitionCount:3 ReplicationFactor:2 Configs:

Topic: imp-imps-app-web Partition: 0 Leader: 34 Replicas: 34,35 Isr: 34,35

Topic: imp-imps-app-web Partition: 1 Leader: 34 Replicas: 34,35,36 Isr: 36,34,35

Topic: imp-imps-app-web Partition: 2 Leader: 38 Replicas: 38 Isr: 38

查看kafka版本

kafka查看版本需要查看libs下面jar包的名称。。。。

/app/zpy/kafka/libs

时间: 2024-10-10 00:57:52

kafka扩容的相关文章

kafka集群精华之-----安装配置、扩容、监控

kafka集群细节支出折磨我死去活来,查看众多文档进度缓慢,内容重复,所以站在大佬的肩膀上 整理文档记录它. kafka说明: 一个Topic可以认为是一类消息,每个topic将被分成多个partition(区),,此外kafka还可以配置partitions需要备份的个数(replicas).有多少个partitions就意味着有多少个"leader",kafka会将"leader"均衡的分散在每个实例上,来确保整体的性能稳定. kafka是通过zookeeper

kafka基操

本文略长,ctrl+f kafka:0.10.1 confuent:3.1.2 7.通过时间戳查询指定分区的offset 使用的方法(offsetsForTimes()): Properties props = new Properties(); KafkaConsumer<String,String> consumer = new KafkaConsumer<>(props); java.util.Map<TopicPartition,OffsetAndTimestamp&

kafka知识体系-日常运维命令

本文主要讲解kafka日常运维的命令,包括topic管理.性能测试脚本. kafka版本0.10.0,安装步骤见大数据平台搭建-kafka集群的搭建 常用脚本 如下所有的命令均基于KAFKA_HOME=/wls/oracle/kafka ,服务器列表如下: 10.20.112.59 10.20.112.64 10.20.112.65 10.20.116.129 10.20.116.175 创建topic /wls/oracle/kafka/bin/kafka-topics.sh --zookee

分布式消息队列Apache Pulsar

Pulsar简介 Apache Pulsar是一个企业级的分布式消息系统,最初由Yahoo开发并在2016年开源,目前正在Apache基金会下孵化.Plusar已经在Yahoo的生产环境使用了三年多,主要服务于Mail.Finance.Sports. Flickr. the Gemini Ads platform. Sherpa以及Yahoo的KV存储. Pulsar之所以能够称为下一代消息队列,主要是因为以下特性: 线性扩展.能够丝滑的扩容到成百上千个节点(Kafka扩容需要占用很多系统资源在

Kafka集群安装与扩容

介绍略 集群安装: 一.准备工作: 1.版本介绍: 目前我们使用版本为kafka_2.9.2-0.8.1(scala-2.9.2为kafka官方推荐版本,此外还有2.8.2和2.10.2可以选择) 2.环境准备: 安装JDK6,目前使用版本为1.6,并配置JAVA_HOME 3.配置修改: 1)拷贝线上配置到本地kafka目录. 2)需要注意的是server.properties里broker和ip的指定,必须要唯一. 3)server.properties中log.dirs必须要手动指定.此配

kafka集群扩容以及数据迁移

一 kafka集群扩容比较简单,机器配置一样的前提下只需要把配置文件里的brokerid改一个新的启动起来就可以.比较需要注意的是如果公司内网dns更改的不是很及时的话,需要给原有的旧机器加上新服务器的host,不然可能会产生controller服务器从zk上拿到域名但是解析不到新机器地址的情况. 二 集群扩容后数据是不会自动均衡到新机器上的,需要采用kafka-reassign-partitions.sh这个工具脚本.脚本可以工作在三种模式--generate,--execute,--veri

apache kafka迁移与扩容工具用法

kafka迁移与扩容工具使用 参考官网site:https://cwiki.apache.org/confluence/display/KAFKA/Replication+tools#Replicationtools-6.ReassignPartitionsTool 说明: 当我们对kafka集群扩容时,需要满足2点要求: 将指定topic迁移到集群内新增的node上. 将topic的指定partition迁移到新增的node上. 1. 迁移topic到新增的node上 假如现在一个kafka集

kafka迁移与扩容

参考官网site: http://kafka.apache.org/documentation.html#basic_ops_cluster_expansion https://cwiki.apache.org/confluence/display/KAFKA/Replication+tools#Replicationtools-6.ReassignPartitionsTool 说明: 当我们对kafka集群扩容时,需要满足2点要求: 将指定topic迁移到集群内新增的node上. 将topic

kafka集群扩容后的topic分区迁移

kafka集群扩容后的topic分区迁移 ./bin/kafka-topics.sh --zookeeper node3:2181,node4:2181,node5:2181  --alter --topic dftt --partitions 4 kafka集群扩容后,新的broker上面不会数据进入这些节点,也就是说,这些节点是空闲的:它只有在创建新的topic时才会参与工作.除非将已有的partition迁移到新的服务器上面:所以需要将一些topic的分区迁移到新的broker上. kaf