kafka zookeeper配置初步

1.软件需求

CentOS 7.2 X64

jdk-8u121-linux-x64.rpm

zookeeper-3.4.9.tar.gz

kafka_2.11-0.10.1.0.tgz

setuptools-33.1.1.zip

kafka-python-1.3.2.tar.gz

2.安装zookeeper、kafka

1).zookeeper

# tar -zxf zookeeper-3.4.9.tar.gz

# mv zookeeper-3.4.9 /usr/local/zookeeper

# mkdir -p /var/lib/zookeeper

# cat > /usr/local/zookeeper/conf/zoo.cfg << EOF

tickTime=2000

dataDir=/var/lib/zookeeper

clientPort=2181

EOF

# /usr/local/zookeeper/bin/zkServer.sh start

ZooKeeper JMX enabled by default

Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg

Starting zookeeper ... STARTED

#

2).kafka

# tar -zxf kafka_2.11-0.10.1.0.tgz

# mv kafka_2.11-0.10.1.0 /usr/local/kafka

# mkdir /tmp/kafka-logs

# /usr/local/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic telematics

fCreated topic "telematics".

#

3.create topics

# /usr/local/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic telematics

4.topic操作

1).list topic

# /usr/local/kafka/bin/kafka-topics.sh --zookeeper localhost:2181 --list

telematics

2).describe topic

# /usr/local/kafka/bin/kafka-topics.sh --zookeeper localhost:2181 --describe --topic telematics

Topic:telematics        PartitionCount:1        ReplicationFactor:1     Configs:

Topic: telematics       Partition: 0    Leader: 0       Replicas: 0     Isr: 0

#

3).delete topic

#/usr/local/kafka/bin/kafka-topics.sh --zookeeper localhost:2181 --delete --topic telematics

5.添加选项执行删除命令时生效,否则只是标记为删除

/usr/local/kafka/config/server.properties

delete.topic.enable=true

6.测试脚本

1). producer.py

#!/usr/bin/python

from kafka import KafkaProducer

producer = KafkaProducer(bootstrap_servers=‘192.168.1.201:9092‘)

producer = KafkaProducer(key_serializer=str.encode, value_serializer=str.encode)

producer.send(‘telematics‘, key=‘ping‘, value=b‘1234‘)

#

2). consumer.py

from kafka import KafkaConsumer

# To consume latest messages and auto-commit offsets

consumer = KafkaConsumer(‘telematics‘,bootstrap_servers=[‘192.168.1.201:9092‘])

for message in consumer:

# message value and key are raw bytes -- decode if necessary!

# e.g., for unicode: `message.value.decode(‘utf-8‘)`

print ("%s:%d:%d: key=%s value=%s" % (message.topic, message.partition,

message.offset, message.key,

message.value))

#

时间: 2024-12-28 18:10:45

kafka zookeeper配置初步的相关文章

java+hadoop+spark+hbase+scala+kafka+zookeeper配置环境变量记录备忘

java+hadoop+spark+hbase+scala 在/etc/profile 下面加上如下环境变量 export JAVA_HOME=/usr/java/jdk1.8.0_102export JRE_HOME=/usr/java/jdk1.8.0_102/jreexport CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib:$JRE_HOME/libexport PATH=$JAVA_HOME

Kafka broker配置介绍 (四)

这部分内容对了解系统和提高软件性能都有很大的帮助,kafka官网上也给出了比较详细的配置详单,但是我们还是直接从代码来看broker到底有哪些配置需要我们去了解的,配置都有英文注释,所以每一部分是干什么的就不翻译了,都能看懂: ? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

ELK+Filebeat+Kafka+ZooKeeper 构建海量日志分析平台

原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 .作者信息和本声明.否则将追究法律责任.http://tchuairen.blog.51cto.com/3848118/1861167 什么要做日志分析平台? 随着业务量的增长,每天业务服务器将会产生上亿条的日志,单个日志文件达几个GB,这时我们发现用Linux自带工具,cat grep awk 分析越来越力不从心了,而且除了服务器日志,还有程序报错日志,分布在不同的服务器,查阅繁琐. 待解决的痛点: 1.大量不同种类的日志成为了运

kafka&amp;zookeeper

一.搭建Zookeeper集群Zookeeper是一个分布式开源框架,提供了协调分布式应用的基本服务,它向外部应用暴露一组通用服务--分布式同步(Distributed Synchronization).命名服务(Naming Service).集群维护(Group Maintenance)等,简化分布式应用协调及其管理的难度,提供高性能的分布式服务.ZooKeeper本身可以以单机模式安装运行,不过它的长处在于通过分布式ZooKeeper集群(一个Leader,多个Follower),基于一定

3.kafka安装配置

kafka安装配置 1.集群规划 hadoop102 hadoop103 hadoop104 zk zk zk kafka kafka kafka jar包下载 http://kafka.apache.org/2downloads.html 2.集群部署 1)解压安装包 $ tar -zxvf kafka_2.11-0.11.0.0.tgz -C /opt/module/ 2)修改解压后的文件名称(可选) $ mv kafka_2.11-0.11.0.0/ kafka 3)在/opt/modul

36补 varnish程序解雇及配置初步、vcl使用详解及varnish命令行工具

01 varnish程序结构及配置初步 配置环境 node1: CentOS 6.7 192.168.1.121 [[email protected] ~]# yum -y install httpd [[email protected] ~]# service httpd start [[email protected] ~]# echo "<h1>Web1</h1>" > /var/www/html/index.html [[email protect

zookeeper配置kerberos认证的坑

zookeeper配置了kerberos之后,zkCli.sh 连接认证死活不通过 连接命令: zkCli.sh 报错如下: WatchedEvent state:SyncConnected type:None path:null 2017-08-21 10:11:42,054 [myid:] - ERROR [main-SendThread(localhost:2181):[email protected]] - An error: (java.security.PrivilegedActio

kafka的配置

1.kafka的配置 2.topic的配置 3.producer的配置 4.consumer的配置 props.put("consumer.timeout.ms", "100"); 这个配置很重要,关乎取消息的阻塞的时间 默认-1,consumer在没有新消息时无限期的block.如果设置一个正值, 一个超时异常会抛出 原文地址:https://www.cnblogs.com/erdanyang/p/11120025.html

基于CentOS6.5的Dubbo及Zookeeper配置

基于CentOS的Dubbo及Zookeeper配置 需要提前准备好的资料: 1.首先配置java环境 步骤: 将jdk的包上传至centos服务器的/opt目录下,并且解压 tar -zxvf jdk-8u152-linux-x64.tar.gz 配置环境变量,修改/etc/profile 文件内容,文件的末尾添加如下内容: export JAVA_HOME=/opt/jdk-8u152 export CLASSPATH=$:CLASSPATH:$JAVA_HOME/lib/ export P