kafka单点集群配置

  1. 下载地址

https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/

?

kafka同样依赖Java环境,由于和zookeeper在相同的机器上,之前已经安装过了,所有可以直接跳过Java环境安装

?

  1. 参考文档

https://www.cnblogs.com/panwenbin-logs/p/10369402.html

?

  1. 安装环境


系统版本


centos7.7


kafka版本


kafka_2.12-2.4.0.tgz


zookeeper版本


apache-zookeeper-3.5.6-bin.tar.gz


jdk版本


openjdk1.8

?

  1. kafka单点安装

  2. 下载kafka

wget https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.4.0/kafka_2.12-2.4.0.tgz

tar xf kafka_2.12-2.4.0.tgz

mv kafka_2.12-2.4.0 /usr/local/kafka_2.12-2.4.0

cd /usr/local/

ln -s /usr/local/kafka_2.12-2.4.0 kafka

?

  1. 配置环境变量

echo ‘export PATH=$PATH:/usr/local/kafka/bin/‘ >>/etc/profile

source /etc/profile

?

  1. 更改配置文件

cd kafka/config/

mkdir /usr/local/kafka/data

cp server.properties server.properties-bak

vim server.properties

主要需要修改:

broker.id

listeners

log.dirs

zookeeper.connect

broker.id=1 #唯一

listeners=PLAINTEXT://172.16.150.154:9092 #修改为本机地址

num.network.threads=3

num.io.threads=8

socket.send.buffer.bytes=102400

socket.receive.buffer.bytes=102400

socket.request.max.bytes=104857600

log.dirs=/usr/local/kafka/data/kafka-logs #数据目录,kafka-logs会自动采集

num.partitions=3

num.recovery.threads.per.data.dir=1

offsets.topic.replication.factor=1

transaction.state.log.replication.factor=1

transaction.state.log.min.isr=1

log.retention.hours=168

log.segment.bytes=1073741824

log.retention.check.interval.ms=300000

zookeeper.connect=172.26.103.56:2181,172.26.103.57:2181,172.26.103.58:2181 #zokeeper连接地址,以","为分割,如果是单点就写一个就行

zookeeper.connection.timeout.ms=6000

group.initial.rebalance.delay.ms=0

?

  1. 启动kafka服务

kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties #后台运行

ss -lntup|grep 9092

jps

?

?

  1. 验证服务是否正常

登录zookeeper验证

cd /usr/local/zookeeper/bin

登录zookeeper服务端

./zkCli.sh -server 127.0.0.1:2181

查看节点配置文件server.properties的 broker id的信息

get /brokers/ids/1

?

?

?

?

?

?

?

  1. kafka集群配置

  2. 安装之前首先应安装zookeeper

?

  1. 按照单点部署各节点

?

  1. 配置环境变量

echo ‘export PATH=$PATH:/usr/local/kafka/bin/‘ >>/etc/profile

?

  1. 更改配置文件(有几个节点就更改几个)

cd kafka/config/

cp server.properties server.properties-bak

vim server.properties

broker.id=1 #唯一

listeners=PLAINTEXT://172.16.150.154:9092 #修改为本机地址

num.network.threads=3

num.io.threads=8

socket.send.buffer.bytes=102400

socket.receive.buffer.bytes=102400

socket.request.max.bytes=104857600

log.dirs=/usr/local/kafka/data/kafka-logs #数据目录,kafka-logs会自动采集

num.partitions=3

num.recovery.threads.per.data.dir=1

offsets.topic.replication.factor=1

transaction.state.log.replication.factor=1

transaction.state.log.min.isr=1

log.retention.hours=168

log.segment.bytes=1073741824

log.retention.check.interval.ms=300000

zookeeper.connect=172.26.103.56:2181,172.26.103.57:2181,172.26.103.58:2181 # zokeeper连接地址,以","为分割,如果是单点就写一个就行

zookeeper.connection.timeout.ms=6000

group.initial.rebalance.delay.ms=0

?

其他节点配置相同,除以下内容:

broker.id=1 #唯一

listeners=PLAINTEXT://172.16.150.154:9092 #修改为本机地址

?

  1. 启动kafka服务

cd /usr/local/kafka_2.12-2.4.0/bin

./kafka-server-start.sh -daemon ../config/server.properties #后台运行

?

?

  1. 验证服务是否正常

登录zookeeper验证

cd /usr/local/zookeeper/bin

登录zookeeper服务端

./zkCli.sh -server 127.0.0.1:2181

查看节点配置文件server.properties的 broker id的信息

get /brokers/ids/3

?

  1. 创建topic验证

#154上创建一个生产者

[[email protected] ~]# cd /usr/local/kafka/bin/

[[email protected] bin]# ./kafka-topics.sh --create --zookeeper 172.16.150.154:2181 --replication-factor 1 --partitions 1 --topic Test

Created topic "Test".

[[email protected] bin]# ./kafka-console-producer.sh --broker-list 172.16.150.154:9092 --topic Test

#其他服务器上创建一个消费者

[[email protected] ~]# cd /usr/local/kafka/bin/

[[email protected] bin]# ./kafka-console-consumer.sh --bootstrap-server 172.16.150.155:9092 --topic Test --from-beginning

#启动成功后,在154上输入任意内容,在另一台机器上查看是否会同步显示

?

?

  1. zookeeper及kafka监控

zookeeper及kafka监控工具

1.zookeeper监控工具(没有安装过,有需要请参考官方文档)

zookeeper监控工具地址:https://github.com/soabase/exhibitor

2.kafka监控工具

1)KafkaOffsetMonitor

2)kafka-manager

?

?

?

?

?

?

?

?

?

?

?

?

原文地址:https://www.cnblogs.com/-luoke/p/12532661.html

时间: 2024-10-08 03:34:33

kafka单点集群配置的相关文章

【kafka】集群配置

1.先配置好zookeeper集群(可以看zookeeper集群搭建) 2.三个kafka机器 10.1.44.186 kafka(9092) zookeeper(2181) 10.1.44.187 kafka(9092) zookeeper(2181) 10.1.44.188 kafka(9092) zookeeper(2181) vim /etc/hosts -------------- 10.1.44.186 server186 10.1.44.187 server187 10.1.44.

HyperLedger Fabric基于zookeeper和kafka集群配置解析

简述 在搭建HyperLedger Fabric环境的过程中,我们会用到一个configtx.yaml文件(可参考Hyperledger Fabric 1.0 从零开始(八)--Fabric多节点集群生产部署),该配置文件主要用于构建创世区块(在构建创世区块之前需要先创建与之对应的所有节点的验证文件集合),其中在配置Orderer信息中有一个OrdererType参数,该参数可配置为"solo" and "kafka",之前博文所讲的环境配置皆是solo,即单节点共

ELK5.3+Kafka集群配置

[一]资源准备 # 3台4C*8G, 安装Zookeeper.Kafka.Logstash--Broker(input: filebeat; output: Kafka) 10.101.2.23 10.101.2.24 10.101.2.25 # 2台4C*8G, 安装Logstash--Indexer(input: Kafaka; output: Elasticsearch) 10.101.2.26 10.101.2.27 # 3台8C*16G, 安装Elasticsearch 10.101.

Cassandra配置多节点集群

上一篇文章 Cassandra入门指南中,我们已经配置好了一个单节点集群,接下来,我们要往这个集群中多加几个节点,看看多个节点是如何同时工作的. Cassandra节点之间交换信息是通过一种叫做Gossip(暂时不知道该翻译为哪个专有名词合适,暂且意会吧)的机制.但是要想让一个消息传递到一个新加入的节点,至少还需要知道另外一个节点,这个节点叫做种子(Seed).通常我们会选择一小部分相对稳定的节点作为种子节点,但这并不是硬性规定.务必要确保每个种子节点至少能感知另外一个种子节点.记住,这样做的目

Kafka 集群配置SASL+ACL

** Kafka 集群配置SASL+ACL 测试环境:** 系统: CentOS 6.5 x86_64 JDK : java version 1.8.0_121 kafka: kafka_2.11-1.0.0.tgz zookeeper: 3.4.5 ip: 192.168.49.161 (我们这里在一台机上部署整套环境) kafka 名词解析: Broker: Kafka 集群包含一个或多个服务器,这种服务器被称为broker Topic: 每条发布到Kafka 集群的消息都有一个类别,这个类

kafka集群配置与测试

刚接触一些Apache Kafka的内容,用了两天时间研究了一下,仅以此文做相关记录,以供学习交流.  概念: kafka依赖的项: 1. 硬件上,kafka利用线性存储来进行硬盘直接读写. 2. kafka没有使用内存作为缓存. 3. 用zero-copy. 4. Gzip和Snappy压缩, 5. kafka对事务处理比较弱,但是message分发上还是做了一定的策略来保证数据递送的准确性的. kafka关于存储的几个概念 1. Partition:同一个topic下可以设置多个partit

Etcd单节点扩容为三节点集群

参考文档 http://www.cnblogs.com/breg/p/5728237.html 开始环境是单节点,存储数据一段时间后发现需要集群高可用环境,幸亏etcd支持在线扩容 1,修改单节点配置并重启etcd [[email protected] etcd]# cat /etc/etcd/etcd.conf ETCD_NAME=k8s1 ETCD_DATA_DIR="/data/etcd" ETCD_LISTEN_CLIENT_URLS="http://0.0.0.0:

Kafka集群配置

kafka_2.11-0.9.0.1.tgz 1.进入项目前的目录 cd /home/dongshanxia mkdir kafka #创建项目目录 cd kafka #进入项目目录 mkdir kafkalogs #创建kafka消息目录,主要存放kafka消息 2.进入配置文件目录 cd /home/dongshanxia/kafka/kafka_2.11-0.9.0.1/config //打开配置文件 vim server.properties ----------------------

【译】Apache Kafka支持单集群20万分区

之前网上关于确定Kafka分区数的博客多多少少都源自于饶军大神的文章,如今他带来了这方面的第二篇文章,特此翻译一下,记录一下其中的要点. 原贴地址: https://www.confluent.io/blog/apache-kafka-supports-200k-partitions-per-cluster Kafka中topic可以设置多个分区,而分区是最小的并行度单位.通常而言,分区数越多吞吐量也越高.但是依然有很多因素制约了一个Kafka集群所能支持的最大分区数.我现在高兴地宣布Kafka