漫游Kafka实战篇之客户端API

Kafka Producer APIs

旧版的Procuder API有两种:kafka.producer.SyncProducer和kafka.producer.async.AsyncProducer.它们都实现了同一个接口:

[java] view plaincopy

  1. class Producer {
  2. /* 将消息发送到指定分区 */
  3. public void send(kafka.javaapi.producer.ProducerData<K,V> producerData);
  4. /* 批量发送一批消息 */
  5. public void send(java.util.List<kafka.javaapi.producer.ProducerData<K,V>> producerData);
  6. /* 关闭producer */
  7. public void close();
  8. }

新版的Producer API提供了以下功能:

  1. 可以将多个消息缓存到本地队列里,然后异步的批量发送到broker,可以通过参数producer.type=async做到。缓存的大小可以通过一些参数指定:queue.timebatch.size。一个后台线程((kafka.producer.async.ProducerSendThread)从队列中取出数据并让kafka.producer.EventHandler将消息发送到broker,也可以通过参数event.handler定制handler,在producer端处理数据的不同的阶段注册处理器,比如可以对这一过程进行日志追踪,或进行一些监控。只需实现kafka.producer.async.CallbackHandler接口,并在callback.handler中配置。
  2. 自己编写Encoder来序列化消息,只需实现下面这个接口。默认的Encoder是kafka.serializer.DefaultEncoder

    [java] view plaincopy

    1. interface Encoder<T> {
    2. public Message toMessage(T data);
    3. }
  3. 提供了基于Zookeeper的broker自动感知能力,可以通过参数zk.connect实现。如果不使用Zookeeper,也可以使用broker.list参数指定一个静态的brokers列表,这样消息将被随机的发送到一个broker上,一旦选中的broker失败了,消息发送也就失败了。
  4. 通过分区函数kafka.producer.Partitioner类对消息分区

    [java] view plaincopy

    1. interface Partitioner<T> {
    2. int partition(T key, int numPartitions);
    3. }

    分区函数有两个参数:key和可用的分区数量,从分区列表中选择一个分区并返回id。默认的分区策略是hash(key)%numPartitions.如果key是null,就随机的选择一个。可以通过参数partitioner.class定制分区函数。

新的api完整实例如下:

[java] view plaincopy

  1. import java.util.*;
  2. import kafka.javaapi.producer.Producer;
  3. import kafka.producer.KeyedMessage;
  4. import kafka.producer.ProducerConfig;
  5. public class TestProducer {
  6. public static void main(String[] args) {
  7. long events = Long.parseLong(args[0]);
  8. Random rnd = new Random();
  9. Properties props = new Properties();
  10. props.put("metadata.broker.list", "broker1:9092,broker2:9092 ");
  11. props.put("serializer.class", "kafka.serializer.StringEncoder");
  12. props.put("partitioner.class", "example.producer.SimplePartitioner");
  13. props.put("request.required.acks", "1");
  14. ProducerConfig config = new ProducerConfig(props);
  15. Producer<String, String> producer = new Producer<String, String>(config);
  16. for (long nEvents = 0; nEvents < events; nEvents++) {
  17. long runtime = new Date().getTime();
  18. String ip = “192.168.2.” + rnd.nextInt(255);
  19. String msg = runtime + “,www.example.com,” + ip;
  20. KeyedMessage<String, String> data = new KeyedMessage<String, String>("page_visits", ip, msg);
  21. producer.send(data);
  22. }
  23. producer.close();
  24. }
  25. }

下面这个是用到的分区函数:

[java] view plaincopy

  1. import kafka.producer.Partitioner;
  2. import kafka.utils.VerifiableProperties;
  3. public class SimplePartitioner implements Partitioner<String> {
  4. public SimplePartitioner (VerifiableProperties props) {
  5. }
  6. public int partition(String key, int a_numPartitions) {
  7. int partition = 0;
  8. int offset = key.lastIndexOf(‘.‘);
  9. if (offset > 0) {
  10. partition = Integer.parseInt( key.substring(offset+1)) % a_numPartitions;
  11. }
  12. return partition;
  13. }
  14. }

KafKa Consumer APIs

Consumer API有两个级别。低级别的和一个指定的broker保持连接,并在接收完消息后关闭连接,这个级别是无状态的,每次读取消息都带着offset。

高级别的API隐藏了和brokers连接的细节,在不必关心服务端架构的情况下和服务端通信。还可以自己维护消费状态,并可以通过一些条件指定订阅特定的topic,比如白名单黑名单或者正则表达式。

低级别的API

[java] view plaincopy

  1. class SimpleConsumer {
  2. /*向一个broker发送读取请求并得到消息集 */
  3. public ByteBufferMessageSet fetch(FetchRequest request);
  4. /*向一个broker发送读取请求并得到一个相应集 */
  5. public MultiFetchResponse multifetch(List<FetchRequest> fetches);
  6. /**
  7. * 得到指定时间之前的offsets
  8. * 返回值是offsets列表,以倒序排序
  9. * @param time: 时间,毫秒,
  10. *              如果指定为OffsetRequest$.MODULE$.LATIEST_TIME(), 得到最新的offset.
  11. *              如果指定为OffsetRequest$.MODULE$.EARLIEST_TIME(),得到最老的offset.
  12. */
  13. public long[] getOffsetsBefore(String topic, int partition, long time, int maxNumOffsets);
  14. }

低级别的API是高级别API实现的基础,也是为了一些对维持消费状态有特殊需求的场景,比如Hadoop consumer这样的离线consumer。

高级别的API

[java] view plaincopy

  1. /* 创建连接 */
  2. ConsumerConnector connector = Consumer.create(consumerConfig);
  3. interface ConsumerConnector {
  4. /**
  5. * 这个方法可以得到一个流的列表,每个流都是MessageAndMetadata的迭代,通过MessageAndMetadata可以拿到消息和其他的元数据(目前之后topic)
  6. *  Input: a map of <topic, #streams>
  7. *  Output: a map of <topic, list of message streams>
  8. */
  9. public Map<String,List<KafkaStream>> createMessageStreams(Map<String,Int> topicCountMap);
  10. /**
  11. * 你也可以得到一个流的列表,它包含了符合TopicFiler的消息的迭代,
  12. * 一个TopicFilter是一个封装了白名单或黑名单的正则表达式。
  13. */
  14. public List<KafkaStream> createMessageStreamsByFilter(
  15. TopicFilter topicFilter, int numStreams);
  16. /* 提交目前消费到的offset */
  17. public commitOffsets()
  18. /* 关闭连接 */
  19. public shutdown()
  20. }

这个API围绕着由KafkaStream实现的迭代器展开,每个流代表一系列从一个或多个分区多和broker上汇聚来的消息,每个流由一个线程处理,所以客户端可以在创建的时候通过参数指定想要几个流。一个流是多个分区多个broker的合并,但是每个分区的消息只会流向一个流。

每调用一次createMessageStreams都会将consumer注册到topic上,这样consumer和brokers之间的负载均衡就会进行调整。API鼓励每次调用创建更多的topic流以减少这种调整。createMessageStreamsByFilter方法注册监听可以感知新的符合filter的tipic。

时间: 2024-10-10 01:22:33

漫游Kafka实战篇之客户端API的相关文章

漫游kafka实战篇之搭建Kafka开发环境

转载注明出处:http://blog.csdn.net/honglei915/article/details/37563647 上篇文章中我们搭建了kafka的服务器,并可以使用Kafka的命令行工具创建topic,发送和接收消息.下面我们来搭建kafka的开发环境. 添加依赖 搭建开发环境需要引入kafka的jar包,一种方式是将Kafka安装包中lib下的jar包加入到项目的classpath中,这种比较简单了.不过我们使用另一种更加流行的方式:使用maven管理jar包依赖. 创建好mav

漫游Kafka实战篇之搭建Kafka运行环境

接下来一步一步搭建Kafka运行环境. Step 1: 下载Kafka 点击下载最新的版本并解压. > tar -xzf kafka_2.9.2-0.8.1.1.tgz > cd kafka_2.9.2-0.8.1.1 Step 2: 启动服务 Kafka用到了Zookeeper,所有首先启动Zookper,下面简单的启用一个单实例的Zookkeeper服务.可以在命令的结尾加个&符号,这样就可以启动后离开控制台. > bin/zookeeper-server-start.sh

漫游Kafka入门篇之简单介绍

原文地址:http://blog.csdn.net/honglei915/article/details/37564521 介绍 Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢? 首先让我们看几个基本的消息系统术语: Kafka将消息以topic为单位进行归纳. 将向Kafka topic发布消息的程序成为producers. 将预订topics并消费消息的程序成为consumer. Kafka以集群的方式运行,

漫游Kafka实现篇之消息和日志

原文地址:http://blog.csdn.net/honglei915/article/details/37760631 消息格式 消息由一个固定长度的头部和可变长度的字节数组组成.头部包含了一个版本号和CRC32校验码. /** * 具有N个字节的消息的格式如下 * * 如果版本号是0 * * 1. 1个字节的 "magic" 标记 * * 2. 4个字节的CRC32校验码 * * 3. N - 5个字节的具体信息 * * 如果版本号是1 * * 1. 1个字节的 "ma

漫游Kafka设计篇之效率优化

原文地址:http://blog.csdn.net/honglei915/article/details/37564757 Kafka在提高效率方面做了很大努力.Kafka的一个主要使用场景是处理网站活动日志,吞吐量是非常大的,每个页面都会产生好多次写操作.读方面,假设每个消息只被消费一次,读的量的也是很大的,Kafka也尽量使读的操作更轻量化. 我们之前讨论了磁盘的性能问题,线性读写的情况下影响磁盘性能问题大约有两个方面:太多的琐碎的I/O操作和太多的字节拷贝.I/O问题发生在客户端和服务端之

(转)漫游Kafka入门篇之简单介绍

转自:http://blog.csdn.net/honglei915/article/details/37564521 原文地址:http://blog.csdn.net/honglei915/article/details/37564521 介绍 Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢? 首先让我们看几个基本的消息系统术语: Kafka将消息以topic为单位进行归纳. 将向Kafka topic发布消

漫游Kafka设计篇之Producer和Consumer

Kafka Producer 消息发送 producer直接将数据发送到broker的leader(主节点),不需要在多个节点进行分发.为了帮助producer做到这点,所有的Kafka节点都可以及时的告知:哪些节点是活动的,目标topic目标分区的leader在哪.这样producer就可以直接将消息发送到目的地了. 客户端控制消息将被分发到哪个分区.可以通过负载均衡随机的选择,或者使用分区函数.Kafka允许用户实现分区函数,指定分区的key,将消息hash到不同的分区上(当然有需要的话,也

漫游Kafka设计篇之性能优化

Kafka在提高效率方面做了很大努力.Kafka的一个主要使用场景是处理网站活动日志,吞吐量是非常大的,每个页面都会产生好多次写操作.读方面,假设每个消息只被消费一次,读的量的也是很大的,Kafka也尽量使读的操作更轻量化. 我们之前讨论了磁盘的性能问题,线性读写的情况下影响磁盘性能问题大约有两个方面:太多的琐碎的I/O操作和太多的字节拷贝.I/O问题发生在客户端和服务端之间,也发生在服务端内部的持久化的操作中.消息集(message set)为了避免这些问题,Kafka建立了“消息集(mess

漫游Kafka设计篇之数据持久化

不要畏惧文件系统! Kafka大量依赖文件系统去存储和缓存消息.对于硬盘有个传统的观念是硬盘总是很慢,这使很多人怀疑基于文件系统的架构能否提供优异的性能.实际上硬盘的快慢完全取决于使用它的方式.设计良好的硬盘架构可以和内存一样快.在6块7200转的SATA RAID-5磁盘阵列的线性写速度差不多是600MB/s,但是随即写的速度却是100k/s,差了差不多6000倍.现代的操作系统都对次做了大量的优化,使用了 read-ahead 和 write-behind的技巧,读取的时候成块的预读取数据,