Kafka是靠什么机制保持高可靠,高可用的?

2019 年 4 月 24 日 51CTO博客

面试大厂时,一旦简历上写了 Kafka,几乎必然会被问到一个问题:说说 Acks 参数对消息持久化的影响?


这个 Acks 参数在 Kafka 的使用中,是非常核心以及关键的一个参数,决定了很多东西。


所以无论是为了面试还是实际项目使用,大家都值得看一下这篇文章对 Kafka 的 Acks 参数的分析,以及背后的原理。


如何保证宕机的时候数据不丢失?


如果想理解这个 Acks 参数的含义,首先就得搞明白 Kafka 的高可用架构原理。


比如下面的图里就是表明了对于每一个 Topic,我们都可以设置它包含几个 Partition,每个 Partition 负责存储这个 Topic 一部分的数据。


然后 Kafka 的 Broker 集群中,每台机器上都存储了一些 Partition,也就存放了 Topic 的一部分数据,这样就实现了 Topic 的数据分布式存储在一个 Broker 集群上。

但是有一个问题,万一一个 Kafka Broker 宕机了,此时上面存储的数据不就丢失了吗?


没错,这就是一个比较大的问题了,分布式系统的数据丢失问题,是它首先必须要解决的,一旦说任何一台机器宕机,此时就会导致数据的丢失。


多副本冗余的高可用机制


所以如果大家去分析任何一个分布式系统的原理,比如说 Zookeeper、Kafka、Redis Cluster、Elasticsearch、HDFS,等等。


其实它们都有自己内部的一套多副本冗余的机制,多副本冗余几乎是现在任何一个优秀的分布式系统都一般要具备的功能。


在 Kafka 集群中,每个 Partition 都有多个副本,其中一个副本叫做 Leader,其他的副本叫做 Follower,如下图:

如上图所示,假设一个 Topic 拆分为了 3 个 Partition,分别是 Partition0,Partiton1,Partition2,此时每个 Partition 都有 2 个副本。


比如 Partition0 有一个副本是 Leader,另外一个副本是 Follower,Leader 和 Follower 两个副本是分布在不同机器上的。


这样的多副本冗余机制,可以保证任何一台机器挂掉,都不会导致数据彻底丢失,因为起码还是有副本在别的机器上的。


多副本之间数据如何同步?


接着我们就来看看多个副本之间数据是如何同步的?其实任何一个 Partition,只有 Leader 是对外提供读写服务的。


也就是说,如果有一个客户端往一个 Partition 写入数据,此时一般就是写入这个 Partition 的 Leader 副本。


然后 Leader 副本接收到数据之后,Follower 副本会不停的给它发送请求尝试去拉取最新的数据,拉取到自己本地后,写入磁盘中。


如下图所示:

ISR 到底指的是什么东西?


既然大家已经知道了 Partiton 的多副本同步数据的机制了,那么就可以来看看 ISR 是什么了。


ISR 全称是“In-Sync Replicas”,也就是保持同步的副本,它的含义就是,跟 Leader 始终保持同步的 Follower 有哪些。


大家可以想一下 ,如果说某个 Follower 所在的 Broker 因为 JVM FullGC 之类的问题,导致自己卡顿了,无法及时从 Leader 拉取同步数据,那么是不是会导致 Follower 的数据比 Leader 要落后很多?


所以这个时候,就意味着 Follower 已经跟 Leader 不再处于同步的关系了。


但是只要 Follower 一直及时从 Leader 同步数据,就可以保证它们是处于同步的关系的。


所以每个 Partition 都有一个 ISR,这个 ISR 里一定会有 Leader 自己,因为 Leader 肯定数据是最新的,然后就是那些跟 Leader 保持同步的 Follower,也会在 ISR 里。


Acks 参数的含义


铺垫了那么多的东西,最后终于可以进入主题来聊一下 Acks 参数的含义了。


如果大家没看明白前面的那些副本机制、同步机制、ISR 机制,那么就无法充分的理解 Acks 参数的含义,这个参数实际上决定了很多重要的东西。


首先这个 Acks 参数,是在 Kafka Producer,也就是生产者客户端里设置的。


也就是说,你往 Kafka 写数据的时候,就可以来设置这个 Acks 参数。然后这个参数实际上有三种常见的值可以设置,分别是:0、1 和 all。


第一种选择是把 Acks 参数设置为 0,意思就是我的 Kafka Producer 在客户端,只要把消息发送出去,不管那条数据有没有在哪怕 Partition Leader 上落到磁盘,我就不管它了,直接就认为这个消息发送成功了。


如果你采用这种设置的话,那么你必须注意的一点是,可能你发送出去的消息还在半路。


结果呢,Partition Leader 所在 Broker 就直接挂了,然后结果你的客户端还认为消息发送成功了,此时就会导致这条消息就丢失了。

第二种选择是设置 Acks = 1,意思就是说只要 Partition Leader 接收到消息而且写入本地磁盘了,就认为成功了,不管它其他的 Follower 有没有同步过去这条消息了。


这种设置其实是 Kafka 默认的设置,大家请注意,划重点!这是默认的设置。


也就是说,默认情况下,你要是不管 Acks 这个参数,只要 Partition Leader 写成功就算成功。


但是这里有一个问题,万一 Partition Leader 刚刚接收到消息,Follower 还没来得及同步过去,结果 Leader 所在的 Broker 宕机了,此时也会导致这条消息丢失,因为人家客户端已经认为发送成功了。

最后一种情况,就是设置 Acks=all,这个意思就是说,Partition Leader 接收到消息之后,还必须要求 ISR 列表里跟 Leader 保持同步的那些 Follower 都要把消息同步过去,才能认为这条消息是写入成功了。


如果说 Partition Leader 刚接收到了消息,但是结果 Follower 没有收到消息,此时 Leader 宕机了,那么客户端会感知到这个消息没发送成功,他会重试再次发送消息过去。


此时可能 Partition2 的 Follower 变成 Leader 了,此时 ISR 列表里只有最新的这个 Follower 转变成的 Leader 了,那么只要这个新的 Leader 接收消息就算成功了。

最后的思考


Acks=all 就可以代表数据一定不会丢失了吗?当然不是,如果你的 Partition 只有一个副本,也就是一个 Leader,任何 Follower 都没有,你认为 acks=all 有用吗?


当然没用了,因为 ISR 里就一个 Leader,它接收完消息后宕机,也会导致数据丢失。


所以说,这个 Acks=all,必须跟 ISR 列表里至少有 2 个以上的副本配合使用,起码是有一个 Leader 和一个 Follower 才可以。


这样才能保证说写一条数据过去,一定是 2 个以上的副本都收到了才算是成功,此时任何一个副本宕机,不会导致数据丢失。


所以希望大家把这篇文章好好理解一下,对大家出去面试,或者工作中用 Kafka 都是很好的一个帮助。


作者:中华石杉

编辑:陶家龙、孙淑娟

出处:转载自微信公众号:石杉的架构笔记(ID:shishan100)


中华石杉:十余年 BAT 架构经验,一线互联网公司技术总监。带领上百人团队开发过多个亿级流量高并发系统。现将多年工作中积累下的研究手稿、经验总结整理成文,倾囊相授。微信公众号:石杉的架构笔记(ID:shishan100)。

精彩文章推荐:

开个脑洞:如果让复联来响应安全事故

以变应变,苏宁采购平台架构演进之路

突发宕机,Kafka写入的数据如何保证不丢失?

登录查看更多
1

相关内容

Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 对于像Hadoop的一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。Kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群来提供实时的消费。
模型优化基础,Sayak Paul,67页ppt
专知会员服务
75+阅读 · 2020年6月8日
专知会员服务
30+阅读 · 2020年5月20日
【实用书】流数据处理,Streaming Data,219页pdf
专知会员服务
76+阅读 · 2020年4月24日
【2020新书】Kafka实战:Kafka in Action,209页pdf
专知会员服务
67+阅读 · 2020年3月9日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
【干货】大数据入门指南:Hadoop、Hive、Spark、 Storm等
专知会员服务
95+阅读 · 2019年12月4日
滴滴离线索引快速构建FastIndex架构实践
InfoQ
21+阅读 · 2020年3月19日
在K8S上运行Kafka合适吗?会遇到哪些陷阱?
DBAplus社群
9+阅读 · 2019年9月4日
浅谈 Kubernetes 在生产环境中的架构
DevOps时代
11+阅读 · 2019年5月8日
亿级订单数据的访问与储存,怎么实现与优化
ImportNew
11+阅读 · 2019年4月22日
亿级订单数据的访问与存储,怎么实现与优化?
码农翻身
16+阅读 · 2019年4月17日
一天精通无人中级篇:遥控器协议 S-BUS
无人机
51+阅读 · 2018年12月20日
【AI说】揭秘京东实时数据仓库背后的神秘力量—JDQ
Spark的误解-不仅Spark是内存计算,Hadoop也是内存计算
一个人的企业安全建设之路
FreeBuf
5+阅读 · 2017年7月7日
Arxiv
5+阅读 · 2019年11月22日
Arxiv
3+阅读 · 2018年12月19日
Arxiv
4+阅读 · 2018年5月24日
Arxiv
6+阅读 · 2018年5月18日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
14+阅读 · 2018年4月18日
Arxiv
3+阅读 · 2018年3月2日
Arxiv
3+阅读 · 2015年5月16日
VIP会员
相关VIP内容
模型优化基础,Sayak Paul,67页ppt
专知会员服务
75+阅读 · 2020年6月8日
专知会员服务
30+阅读 · 2020年5月20日
【实用书】流数据处理,Streaming Data,219页pdf
专知会员服务
76+阅读 · 2020年4月24日
【2020新书】Kafka实战:Kafka in Action,209页pdf
专知会员服务
67+阅读 · 2020年3月9日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
【干货】大数据入门指南:Hadoop、Hive、Spark、 Storm等
专知会员服务
95+阅读 · 2019年12月4日
相关资讯
滴滴离线索引快速构建FastIndex架构实践
InfoQ
21+阅读 · 2020年3月19日
在K8S上运行Kafka合适吗?会遇到哪些陷阱?
DBAplus社群
9+阅读 · 2019年9月4日
浅谈 Kubernetes 在生产环境中的架构
DevOps时代
11+阅读 · 2019年5月8日
亿级订单数据的访问与储存,怎么实现与优化
ImportNew
11+阅读 · 2019年4月22日
亿级订单数据的访问与存储,怎么实现与优化?
码农翻身
16+阅读 · 2019年4月17日
一天精通无人中级篇:遥控器协议 S-BUS
无人机
51+阅读 · 2018年12月20日
【AI说】揭秘京东实时数据仓库背后的神秘力量—JDQ
Spark的误解-不仅Spark是内存计算,Hadoop也是内存计算
一个人的企业安全建设之路
FreeBuf
5+阅读 · 2017年7月7日
相关论文
Arxiv
5+阅读 · 2019年11月22日
Arxiv
3+阅读 · 2018年12月19日
Arxiv
4+阅读 · 2018年5月24日
Arxiv
6+阅读 · 2018年5月18日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
14+阅读 · 2018年4月18日
Arxiv
3+阅读 · 2018年3月2日
Arxiv
3+阅读 · 2015年5月16日
Top
微信扫码咨询专知VIP会员