kakfa 入门

springboot官网

Apache Kafka is supported by providing auto-configuration of the spring-kafka project.  Kafka configuration is controlled by external configuration properties in spring.kafka.*. For example, you might declare the following section in 。   

通过提供spring-kafka项目的自动配置支持Apache ,Kafka配置由spring.kafka中的外部配置属性控制。 例如,您可以声明以下部分:

spring.kafka.bootstrap-servers=localhost:9092

spring.kafka.consumer.group-id=myGroup

Spring’s KafkaTemplate is auto-configured and you can autowire them directly in your own beans:

Spring的KafkaTemplate是自动配置的,您可以直接在自己的bean中自动连接:

@Component
public class MyBean {
  private final KafkaTemplate kafkaTemplate;

    @Autowired
      public MyBean(KafkaTemplate kafkaTemplate) {
	this.kafkaTemplate = kafkaTemplate;
      }
  // ...
}When the Apache Kafka infrastructure is present, any bean can be annotated with @KafkaListener to create a listener endpoint. If no  KafkaListenerContainerFactory has been defined, a default one is configured automatically with keys defined in spring.kafka.listener.*.

 当Apache Kafka存在时,任何bean都可以用@KafkaListener注释来创建一个侦听器端点。 如果没有定义KafkaListenerContainerFactory,
 使用spring.kafka.listener中定义的键自动配置默认值。

The following component creates a listener endpoint on the someTopic topic:

以下组件在someTopic主题上创建一个侦听器端点:@Componentpublic class MyBean {

    @KafkaListener(topics = "someTopic")
    public void processMessage(String content) {
        // ...
    }
}

The properties supported by auto configuration are shown in Appendix A, Common application properties. Note that these properties (hyphenated or camelCase) map directly to the Apache Kafka dotted properties for the most part, refer to the Apache Kafka documentation for details.
The first few of these properties apply to both producers and consumers, but can be specified at the producer or consumer level if you wish to use different values for each. Apache Kafka designates properties with an importance: HIGH, MEDIUM and LOW. Spring Boot auto configuration supports all HIGH importance properties,some selected MEDIUM and LOW, and any that do not have a default value.Only a subset of the properties supported by Kafka are available via the KafkaProperties class. If you wish to configure the producer or consumer with additional properties that are not directly supported, use the following:
自动配置支持的属性如附录A,常用应用程序属性所示。 请注意,这些属性(连字符或camelCase)大部分地直接映射到Apache Kafka虚线属性,有关详细信息,请参阅Apache Kafka文档。这些属性中的前几个适用于生产者和消费者,但如果您希望使用不同的产品,则可以在生产者或消费者层面进行指定每个值。 Apache Kafka指定具有重要性的属性:HIGH,MEDIUM和LOW。 Spring Boot自动配置支持所有HIGH重要性, 一些选择MEDIUM和LOW,任何没有默认值只有Kafka支持的属性的一小部分可通过KafkaProperties类获得。 如果您希望使用不直接支持的其他属性来配置生产者或消费者,请使用以下内容:spring.kafka.properties.foo.bar=baz
spring.kafka.consumer.properties.fiz.buz=qux
spring,kafka.producer.properties.baz.qux=fiz

启动kafka-server:PS E:\工作软件及资料\软件工作空间\kafka_2.12-0.11.0.1\bin\windows> ./kafka-server-start.bat ..\..\config\server.properties创建topic : E:\工作软件及资料\软件工作空间\kafka_2.12-0.11.0.1\bin\windows> ./kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 3 --topic test1

Created topic "test1".

启动生产者控制台窗口:E:\工作软件及资料\软件工作空间\kafka_2.12-0.11.0.1\bin\windows> ./kafka-console-producer.bat --broker-list localhost:9092 --topic test1
启动消费者控制台窗口: E:\工作软件及资料\软件工作空间\kafka_2.12-0.11.0.1\bin\windows> ./kafka-console-consumer.bat --zookeeper localhost:2181 --from-beginning --topic test1
 


 
 
 
时间: 2024-10-12 12:07:15

kakfa 入门的相关文章

十分钟入门流处理框架Flink --实时报表场景的应用

随着业务的发展,数据量剧增,我们一些简单报表大盘类的任务,就不能简单的依赖于RDBMS了,而是依赖于数仓之类的大数据平台. 数仓有着巨量数据的存储能力,但是一般都存在一定数据延迟,所以要想完全依赖数数仓来解决实时报表问题,是困难的. 其实,所谓的实时报表,往简单了说就是: 对现在的一些数据进行加减乘除聚合后,得到的一串与时间相关的数字. 所以,这类问题的关键点应该在于这个实时数据怎么来,以及怎么处理这些实时数据. 一般地,做这类报表类工作,最基本的原则就是: 业务无侵入性,然后又要做到实时. 所

R语言快速上手入门

R语言快速上手入门 课程学习网址:http://www.xuetuwuyou.com/course/196 课程出自学途无忧网:http://www.xuetuwuyou.com 课程简介 本教程深入浅出地讲解如何使用R语言玩转数据.课程中涵盖R语言编程的方方面面,内容涉及R对象的类型.R的记号体系和环境系统.自定义函数.if else语句.for循环.S3类R的包系统以及调试工具等.本课程还通过示例演示如何进行向量化编程,从而对代码进行提速并尽可能地发挥R的潜能.本课程适合立志成为数据科学家的

笔记:Spring Cloud Zuul 快速入门

Spring Cloud Zuul 实现了路由规则与实例的维护问题,通过 Spring Cloud Eureka 进行整合,将自身注册为 Eureka 服务治理下的应用,同时从 Eureka 中获取了所有其他微服务的实例信息,这样的设计非常巧妙的将服务治理体系中维护的实例信息利用起来,使得维护服务实例的工作交给了服务治理框架自动完成,而对路由规则的维护,默认会将通过以服务名作为 ContextPath 的方式来创建路由映射,也可以做一些特别的配置,对于签名校验.登录校验等在微服务架构中的冗余问题

linux入门基础知识及简单命令介绍

linux入门基础知识介绍 1.计算机硬件组成介绍 计算机主要由cpu(运算器.控制器),内存,I/O,外部存储等构成. cpu主要是用来对二进制数据进行运算操作,它从内存中取出数据,然后进行相应的运算操作.不能从硬盘中直接取数据. 内存从外部存储中取出数据供cpu运存.内存的最小单位是字节(byte) 备注:由于32的cpu逻辑寻址能力最大为32内存单元.因此32位cpu可以访问的最大内存空间为:4GB,算法如下: 2^32=2^10*2^10*2^10*2^2 =1024*1024*1024

JAVA通信系列二:mina入门总结

一.学习资料 Mina入门实例(一) http://www.cnblogs.com/juepei/p/3939119.html Mina入门教程(二)----Spring4 集成Mina http://www.cnblogs.com/juepei/p/3940396.html Apache Mina 入门实例--创建一个MINA时间服务http://loftor.com/archives/apache-mina-quick-start-guide.html MINA2.0用户手册中文版--系列文

Storm入门(四)WordCount示例

Storm API文档网址如下: http://storm.apache.org/releases/current/javadocs/index.html 一.关联代码 使用maven,代码如下. pom.xml  和Storm入门(三)HelloWorld示例相同 RandomSentenceSpout.java /** * Licensed to the Apache Software Foundation (ASF) under one * or more contributor lice

浅谈Ubuntu PowerShell——小白入门教程

早在去年八月份PowerShell就开始开源跨平台了,但是一直没有去尝试,叫做PowerShell Core. 这里打算简单介绍一下如何安装和简单使用,为还不知道PowerShell Core on Ubuntu的同学们提供一点小小的入门帮助,谢谢大家支持~ PowerShell Core是由Microsoft开发的运行在.Net Core上的开源跨平台的任务自动化和配置管理系统. 1.   在Ubuntu 16.04上安装PowerShell Core a)         导入公共存储库GP

2.vue.js 入门环境搭建

原文链接:http://blog.csdn.net/luckylqh/article/details/52863026?locationNum=2&fps=1 vue这个新的工具,确实能够提高效率,在经历的一段时间的摧残之后,终于能够有一个系统的认识了,下面就今天的收获做一个总结,也是vue入门的精髓: 1.要使用vue来开发前端框架,首先要有环境,这个环境要借助于node,所以要先安装node,借助于node里面的npm来安装需要的依赖等等. 这里有一个小技巧:如果在cmd中直接使用npm来安

学习mysql的笔记:mysql十大基本入门语句

学习mysql数据库,从最简单的十条入门语句开始.刚开始学习mysql,老师让我们用cmd控制台输入语句,而不是选择用工具输入,这是为了我们能够先熟悉mysql语句. 首先要先进入mysql,语句为:mysql -hlocalhost -uroot -p  然后回车,输入密码. C:\Users\Administrator>mysql -hlocalhost -uroot -p Enter password: ****** 成功进入的话会出现 Welcome to the MySQL monit