美文网首页消息中间件-Kafka系列
深入浅出解读 Kafka 的可靠性机制

深入浅出解读 Kafka 的可靠性机制

作者: you的日常 | 来源:发表于2021-04-07 11:18 被阅读0次

1. 副本机制

在分布式系统中,为了提高可靠性,最常用、最有效的策略是“副本机制”,Kafka 也不例外。Kafka 为每个 Partition 维护了一个 AR(Assigned Replicas)列表,由 ISR(In-Sync Replicas,与 Leader 数据同步的 Replica)和 OSR(Outof-Sync Replicas,与 Leader 数据不同步的 Replica)组成。初始状态下,所有的 Replica 都在 ISR 中,但在 Kafka 工作过程中,由于各种问题(网络、磁盘、内存)可能导致部分 Replica 的同步速度慢于参数 replica.lag.time.max.ms 指定的阈值,一旦出现这种情况,这部分 Replica 会被移出 ISR,降级至 OSR 中。

关于参数 replica.lag.time.max.ms

数据类型为 Long,默认值为 10000,重要性为 High,官方解释如下:

If a follower hasn't sent any fetch requests or hasn't consumed up to the leaders log end offset for at least this time, the leader will remove the follower from ISR.

副本机制如何作用?

Producer 指定 Topic 向 Broker 发送消息,经过内部处理(如负载均衡等)后写入某 Partition 的 Leader,Leader 收到消息数据后并不会立即回应 Producer,而是等待 ISR 列表中所有的 Replica 同步数据完成,之后才向 Producer 返回成功消息。这是不是与 Raft 算法有点类似?

基于上述分析,不难理解,只要保证 ISR 中的 Replica 数量大于 2(ISR 包括 Leader),即便出现 Leader 突然故障下线的情况,也能保证消息不丢失(因为 ISR 中的 Replica 与 Leader 保持同步)。当然,凡事过犹不及,ISR 中 Replica 的数量不宜过多,否则会降低 Kafka 的吞吐性能。

补充一点,OSR 内的 Replica 是否同步了 Leader 的数据不影响数据是否提交成功,这些 Replica 会不断从 Leader 中同步数据。至于同步的进度并不重要,不过,运维人员应密切关注 Replica 从 ISR 中降级转入 OSR 的情况,并及时排查故障,使其尽快回到 ISR 中,以维持 ISR 中 Replica 的数量处于合理状态,同时降低集群宕机的风险。

2. 截断机制

在第 12 课中,我们介绍了 LEO 和 HW 在正常情况下的流转过程,那遇到异常情况又会怎样呢?

如果出现 Leader 故障下线的情况,就需要从所有的 Follower 中选举新的 Leader,以便继续提供服务。为了保证一致性,通常只能从 ISR 列表中选取新的 Leader (上面已经介绍,ISR 列表中的 Follower 与原 Leader 保持同步),因此,无论 ISR 中哪个 Follower 被选为新的 Leader,它都知道 HW 之前的数据,可以保证在切换了 Leader 后,Consumer 可以继续“看到”之前已经由 Producer 提交的数据。

如下图所示,如果 Leader 宕机,Follower1 被选为新的 Leader,而新 Leader (原 Follower1 )并没有完全同步之前 Leader 的所有数据(少了一个消息 6),之后,新 Leader 又继续接受了新的数据,此时,原本宕机的 Leader 经修复后重新上线,它将发现新 Leader 中的数据和自己持有的数据不一致,怎么办呢?

为了保证一致性,必须有一方妥协,显然旧的 Leader 优先级较低,因此, 它会将自己的数据截断到宕机之前的 HW 位置(HW 之前的数据,与 Leader 一定是相同的),然后同步新 Leader 的数据。这便是所谓的 “截断机制”。

enter image description here

3. 消息生产的可靠性

3.1 消息可能重复生产

在第 12 课 2.4 小节中,我们介绍了消息生产过程中保证数据可靠性的策略。该策略虽然可以保障消息不丢失,但无法避免出现重复消息。例如,生产者发送数据给 Leader,Leader 同步数据给 ISR 中的 Follower,同步到一半 Leader 时宕机,此时选出新的 Leader,它可能具有部分此次提交的数据,而生产者收到发送失败响应后将重发数据,新的 Leader 接受数据则数据重复。因此 Kafka 只支持“At Most Once”和“At Least Once”,而不支持“Exactly Once”,消息去重需在具体的业务中实现。

  1. At Most Once:消息可能会丢,但绝不会重复传输;
  2. At Least Once:消息绝不会丢,但可能会重复传输;
  3. Exactly once:每条消息肯定会被传输一次且仅传输一次。

3.2 配置示例

综上所述,对高可靠性有要求的应用场景中,生产者的配置示例如下。

Broker 配置:

default.replication.factor=3
min.insync.replicas=2

Producer 配置:

roperties props = new Properties();
props.put("bootstrap.servers", "100.120.130.170:9092,100.120.130.171:9092, 100.120.130.172:9092");
props.put("acks", "all"); //保证高可靠性,设置成"all"或者"-1"
props.put("retries", 3);  //重试次数阈值,这里设置为3
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); //这里是key的序列化类
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");//这里是value的序列化类
Producer<String, String> producer = new KafkaProducer<String,String>(props);

4. 消息发送的可靠性

相关文章

  • 深入浅出解读 Kafka 的可靠性机制

    1. 副本机制 在分布式系统中,为了提高可靠性,最常用、最有效的策略是“副本机制”,Kafka 也不例外。Kafk...

  • Kafka 概念及原理深度分析

    中间件:Kafka关键字:Kafka文件机制,Kafka分区,Kafka数据可靠性,Kafka Ack等注:本文是...

  • kafka消息可靠性方案

    在 Kafka 工作机制 一文提及了 Kafka 消息的不可靠性。本文就 Kafka 消息的三种不可靠性(重复、丢...

  • kafka的可靠性保证

    这一篇主要来讲讲kafka的可靠性是如何实现的 1.kafka可靠性的基本机制 顺序性保证Kafka可以保证分区消...

  • kafka-怎么保证消息的可靠性与一致性

    在kafka中主要通过ISR机制来保证消息的可靠性。下面通过几个问题来说明kafka如何来保证消息可靠性与一致性 ...

  • 转:kafka数据可靠性深度解读

    kafka数据可靠性深度解读 朱忠华 [AI前线] 2017-04-22 Kafka起初是由LinkedIn公司开...

  • Kafka Producer可靠性浅析

    本文主要介绍kafka producer的可靠性,包括ack、batch、重试机制等 消息发布 KafkaPr...

  • Kafka可靠性机制

    一、组件 介绍一下kafka进行数据复制时会涉及到的一些组件概念 zookeeper:维护集群信息,当broker...

  • kafka数据可靠性深度解读

    kafka数据可靠性深度解读 Kafka起初是由LinkedIn公司开发的一个分布式的消息系统,后成为Apache...

  • Kafka解析之失效副本

    简介 Kafka从0.8.x版本开始引入副本机制,这样可以极大的提高集群的可靠性和稳定性。不过这也使得Kafka变...

网友评论

    本文标题:深入浅出解读 Kafka 的可靠性机制

    本文链接:https://www.haomeiwen.com/subject/ovwebktx.html