SpringBoot集成Kafka

红太狼 2023-10-11 21:09 92阅读 0赞
引入Kafka依赖
  1. <dependency>
  2. <groupId>org.springframework.kafka</groupId>
  3. <artifactId>spring-kafka</artifactId>
  4. </dependency>
修改配置文件
  1. spring:
  2. kafka:
  3. bootstrap-servers: 127.0.0.1:9092,127.0.0.1:9093 #集群IP用,隔开
  4. producer:
  5. retries: 3
  6. batch-size: 16384 #生产者缓存每次发送batchSize大小的数据
  7. buffer-memory: 33554432 #设置缓冲区的最大大小
  8. acks: 1 #leader接受到以后就返回结果,不需要等待follower同步
  9. key-serializer: org.apache.kafka.common.serialization.StringSerializer
  10. value-serializer: org.apache.kafka.common.serialization.StringSerializer
  11. consumer:
  12. group-id: default-group
  13. enable-auto-commit: false #设置每条消息手动提交
  14. auto-offset-reset: earliest #一个消费组中默认从最早的消息开始消费,如果消费过了,则从offset开始消费
  15. key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  16. value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  17. max-poll-records: 500 #每次最多拉取500条
  18. listener:
  19. ack-mode: manual_immediate
  20. server:
  21. port: 9700
测试编写消息生产者
  1. @RestController
  2. @RequestMapping("/msg")
  3. public class MsgRestController {
  4. private final static String TOPIC_NAME = "my-replicated-topic";
  5. @Autowired
  6. private KafkaTemplate<String,String> kafkaTemplate;
  7. @RequestMapping("/send")
  8. public String sendMessage(){
  9. // kafkaTemplate.send(TOPIC_NAME,"this is a message!");//不指定key与分区
  10. // kafkaTemplate.send(TOPIC_NAME,"key","this is a message!"); //指定key,kafka会对key进行hash算法,根据算法结果保存到指定分区
  11. // kafkaTemplate.send(TOPIC_NAME,0,"key","this is a message!");//明确指定要发送的分区
  12. kafkaTemplate.send(TOPIC_NAME,"this is a message!");
  13. return "send success!";
  14. }
  15. }

在生产者发送消息时,可以指定分区,也可以不指定分区,如果不指定,则kafka会轮训发送。如果指定了消息的key,则会根据指定的key进行hash算法得出保存的分区。

获取分区数据
  1. @KafkaListener(topics = "my-replicated-topic", groupId = "myGroup")
  2. public void listenGroup(ConsumerRecord<String, String> record,
  3. Acknowledgment ack) {
  4. System.out.println("我是消费者1");
  5. String value = record.value();
  6. System.out.println("value = " + value);
  7. System.out.println("record = " + record);
  8. // ack.acknowledge(); //如果不手动提交,则消息会被重复消费
  9. }

使用@KafkaListener注解绑定某个方法来实现数据的消费。这里消费时还是有蛮多细节的。

  • topics : 指定消费的主题,SpringBoot封装了消费,一个KafkaListener注解就是一个消费者,两个方法就是两个注解。
  • groupId :指定此消费者所属的消费组,一个队列,或者一个分区同一个消费组中只能有一个消费者消费,当该消费者中的消费者宕机以后,触发kafka的reblance机制重选更新消费者。

    @KafkaListener(groupId = “countTotal”,

    1. topicPartitions = {
    2. @TopicPartition(topic = "countTotal1",partitions = {
    3. "0,1"}),
    4. @TopicPartition(topic = "countTotal2",partitions = {
    5. "0"},partitionOffsets = {
    6. @PartitionOffset(partition = "0",initialOffset = "100")
    7. })
    8. })

如果一个消费者同时消费多个主题,则可以使用topicPartitions,@TopicPartition 指定多个消费的队列。

消息的生产与消费
  1. 为了保证消息尽可能不丢失,kafka生产者在发送消息时要设置ack机制,如果ack值为1,则表示只要集群中的leader将此条消息保存到log文件中就行了,但是消费者端有HW机制,也就是说消费者端允许消费的消息只能是所有集群全部同步后的消息,这也是高可用的一种机制,保证leader宕机后的follower可以不丢失消息。
  2. 消费者端设置手动提交而不是自动提交,在application.yml中配置了ack-mode: manual_immediate,这种消费方式为等待消费者处理完消息以后调用签收方法通知给kafka,表示此条消息被消费了,kafka则会更新这个分区的offset。注意:每个主题、每个分区的offset都是独立的。

在这里插入图片描述

  1. 消费者的分区分配策略:如果一个主题有2个分区,那么对于多个消费者来说,如果在拉取消息的时候没有指定分区,则有kafka使用ribbon或者range算法来分配每个分区的消费者,如果消费者数小于分区数,则只能是一个消费者去消费多个分区的数据了。Topic的分区不一定保存在一个broker上,如果kafka集群是3个broker[broker0,broker1,broker2],那么在创建topic时,指定对应的分区数为2个,则有可能是分区1保存在broker0,分区2保存在broker1上。同时如果还指定了副本,则根据副本数,分别创建到对应的broker上,同时选举出leader和follower。

发表评论

表情:
评论列表 (有 0 条评论,92人围观)

还没有评论,来说两句吧...

相关阅读