1、Offset Topic
Consumer通过提交Offset来记录当前消费的最后位置,以便于消费者发生崩溃或者有新的消费者加入消费者组,而引发的分区再均衡操作,每个消费者可能会分到不同的分区。我测试的kafka版本是:0.11.0.2,消费者往一个特殊的主题“_consumer_offset”发送消息,如图:
消息的内容包括:
fields | content |
---|---|
Key | Consumer Group, topic, partition |
Payload | Offset, metadata, timestamp |
提交到“_consumer_offset”主题的消息会根据消费组的key进行分区,一个消费组内的所有消息,都会发送到唯一的Partition。
2、Offset Commit
Offset的提交逻辑其实和普通的生产者往kafka发送数据是一样的。
2.1、Consumer
消费者启动时会为“_consumer_offset”主题创建一个内置的生产者,用于Offset数据的提交。
2.2、Broker
就是将Offset提交当成是正常的生产请求,逻辑不变。
“_consumer_offset”主题会在集群中的第一个Offset提交请求时被自动创建。
3、Offset的提交方式
Offset提交时会有两个问题:重复消费和漏消费。
- 当提交的Offset小于客户端处理的最后一条消息的Offset,会造成重复消费。
情景:先消费,后提交Offset,如果消费成功、提交失败,消费者下次获取的Offset还是以前的,所以会造成重复消费。 - 当提交的Offset大于客户端处理的最后一条消息的Offset,会造成漏消费。
情景:先提交Offset,后消费,如果提交成功、消费失败,消费者下次获取的Offset已经是新的,所以会造成漏消费。
根据具体的业务情况,选择合适的提交方式,可以有效的解决掉重复消费和漏消费的问题。
3.1、自动提交
自动提交是最简单的提交方式,通过设置参数,可以开启自动提交也可以设置提交的时间间隔。缺点就是,当消费了一些数据后,还未达到自动的提交时间,这个时候,有新的消费者加入,或者当前消费者挂掉,会出现分区再均衡操作,之后消费者重新在上一次提交的Offset开始消费,造成重复消费。虽然可以缩短自动提交间隔,但是还是无法解决这个问题。
3.2、同步提交当前Offset
关闭手动提交,可以通过同步提交接口来提交当前的Offset,虽然可以获取主动性,但是也牺牲了吞吐量,因为同步提交必然是阻塞的,而且会有重试机制。
3.3、异步提交当前Offset
使用异步提交方式,既有主动性,也可以增加kafka消费的吞吐量,没有重试机制,也解决不掉重复消费的问题。
3.4、同步和异步组合提交
正常使用的时候使用异步提交,速度快。当要关闭消费者的时候,使用同步提交,即使失败了也会一直重试,直到提交成功或者发生无法恢复的错误。不管是同步提交还是异步提交都避免不了重复消费和漏消费的问题。
3.5、提交指定的Offset
因为自动提交、同步提交与异步提交都是将最后一个Offset提交上去。通过提交指定的Offset,可以减轻重复消费和漏消费的问题,但是相应的消费端就需要复杂的业务处理,而且需要自己维护Offset。
原文地址:https://www.cnblogs.com/clawhub/p/12008158.html