You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

144 lines
16 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 38 | 调优Kafka你做到了吗
你好我是胡夕。今天我要和你分享的主题是如何调优Kafka。
## 调优目标
在做调优之前我们必须明确优化Kafka的目标是什么。通常来说调优是为了满足系统常见的非功能性需求。在众多的非功能性需求中性能绝对是我们最关心的那一个。不同的系统对性能有不同的诉求比如对于数据库用户而言性能意味着请求的响应时间用户总是希望查询或更新请求能够被更快地处理完并返回。
对Kafka而言性能一般是指吞吐量和延时。
吞吐量也就是TPS是指Broker端进程或Client端应用程序每秒能处理的字节数或消息数这个值自然是越大越好。
延时和我们刚才说的响应时间类似它表示从Producer端发送消息到Broker端持久化完成之间的时间间隔。这个指标也可以代表端到端的延时End-to-EndE2E也就是从Producer发送消息到Consumer成功消费该消息的总时长。和TPS相反我们通常希望延时越短越好。
总之高吞吐量、低延时是我们调优Kafka集群的主要目标一会儿我们会详细讨论如何达成这些目标。在此之前我想先谈一谈优化漏斗的问题。
## 优化漏斗
优化漏斗是一个调优过程中的分层漏斗,我们可以在每一层上执行相应的优化调整。总体来说,层级越靠上,其调优的效果越明显,整体优化效果是自上而下衰减的,如下图所示:
![](https://static001.geekbang.org/resource/image/94/59/94486dc0eb55b68855478ef7e5709359.png)
**第1层应用程序层**。它是指优化Kafka客户端应用程序代码。比如使用合理的数据结构、缓存计算开销大的运算结果抑或是复用构造成本高的对象实例等。这一层的优化效果最为明显通常也是比较简单的。
**第2层框架层**。它指的是合理设置Kafka集群的各种参数。毕竟直接修改Kafka源码进行调优并不容易但根据实际场景恰当地配置关键参数的值还是很容易实现的。
**第3层JVM层**。Kafka Broker进程是普通的JVM进程各种对JVM的优化在这里也是适用的。优化这一层的效果虽然比不上前两层但有时也能带来巨大的改善效果。
**第4层操作系统层**。对操作系统层的优化很重要,但效果往往不如想象得那么好。与应用程序层的优化效果相比,它是有很大差距的。
## 基础性调优
接下来我就来分别介绍一下优化漏斗的4个分层的调优。
### 操作系统调优
我先来说说操作系统层的调优。在操作系统层面你最好在挂载Mount文件系统时禁掉atime更新。atime的全称是access time记录的是文件最后被访问的时间。记录atime需要操作系统访问inode资源而禁掉atime可以避免inode访问时间的写入操作减少文件系统的写操作数。你可以执行**mount -o noatime命令**进行设置。
至于文件系统我建议你至少选择ext4或XFS。尤其是XFS文件系统它具有高性能、高伸缩性等特点特别适用于生产服务器。值得一提的是在去年10月份的Kafka旧金山峰会上有人分享了ZFS搭配Kafka的案例我们在专栏[第8讲](https://time.geekbang.org/column/article/101763)提到过与之相关的[数据报告](https://www.confluent.io/kafka-summit-sf18/kafka-on-zfs)。该报告宣称ZFS多级缓存的机制能够帮助Kafka改善I/O性能据说取得了不错的效果。如果你的环境中安装了ZFS文件系统你可以尝试将Kafka搭建在ZFS文件系统上。
另外就是swap空间的设置。我个人建议将swappiness设置成一个很小的值比如110之间以防止Linux的OOM Killer开启随意杀掉进程。你可以执行sudo sysctl vm.swappiness=N来临时设置该值如果要永久生效可以修改/etc/sysctl.conf文件增加vm.swappiness=N然后重启机器即可。
操作系统层面还有两个参数也很重要,它们分别是**ulimit -n和vm.max\_map\_count**。前者如果设置得太小你会碰到Too Many File Open这类的错误而后者的值如果太小在一个主题数超多的Broker机器上你会碰到**OutOfMemoryErrorMap failed**的严重错误因此我建议在生产环境中适当调大此值比如将其设置为655360。具体设置方法是修改/etc/sysctl.conf文件增加vm.max\_map\_count=655360保存之后执行sysctl -p命令使它生效。
最后不得不提的就是操作系统页缓存大小了这对Kafka而言至关重要。在某种程度上我们可以这样说给Kafka预留的页缓存越大越好最小值至少要容纳一个日志段的大小也就是Broker端参数log.segment.bytes的值。该参数的默认值是1GB。预留出一个日志段大小至少能保证Kafka可以将整个日志段全部放入页缓存这样消费者程序在消费时能直接命中页缓存从而避免昂贵的物理磁盘I/O操作。
### JVM层调优
说完了操作系统层面的调优我们来讨论下JVM层的调优其实JVM层的调优我们还是要重点关注堆设置以及GC方面的性能。
1.设置堆大小。
如何为Broker设置堆大小这是很多人都感到困惑的问题。我来给出一个朴素的答案**将你的JVM堆大小设置成68GB**。
在很多公司的实际环境中这个大小已经被证明是非常合适的你可以安心使用。如果你想精确调整的话我建议你可以查看GC log特别是关注Full GC之后堆上存活对象的总大小然后把堆大小设置为该值的1.52倍。如果你发现Full GC没有被执行过手动运行jmap -histo:live < pid >就能人为触发Full GC。
2.GC收集器的选择。
**我强烈建议你使用G1收集器主要原因是方便省事至少比CMS收集器的优化难度小得多**。另外你一定要尽力避免Full GC的出现。其实不论使用哪种收集器都要竭力避免Full GC。在G1中Full GC是单线程运行的它真的非常慢。如果你的Kafka环境中经常出现Full GC你可以配置JVM参数-XX:+PrintAdaptiveSizePolicy来探查一下到底是谁导致的Full GC。
使用G1还很容易碰到的一个问题就是**大对象Large Object**反映在GC上的错误就是“too many humongous allocations”。所谓的大对象一般是指至少占用半个区域Region大小的对象。举个例子如果你的区域尺寸是2MB那么超过1MB大小的对象就被视为是大对象。要解决这个问题除了增加堆大小之外你还可以适当地增加区域大小设置方法是增加JVM启动参数-XX:+G1HeapRegionSize=N。默认情况下如果一个对象超过了N/2就会被视为大对象从而直接被分配在大对象区。如果你的Kafka环境中的消息体都特别大就很容易出现这种大对象分配的问题。
### Broker端调优
我们继续沿着漏斗往上走来看看Broker端的调优。
Broker端调优很重要的一个方面就是合理地设置Broker端参数值以匹配你的生产环境。不过后面我们在讨论具体的调优目标时再详细说这部分内容。这里我想先讨论另一个优化手段**即尽力保持客户端版本和Broker端版本一致**。不要小看版本间的不一致问题它会令Kafka丧失很多性能收益比如Zero Copy。下面我用一张图来说明一下。
![](https://static001.geekbang.org/resource/image/53/6e/5310d7d29235b080c872e0a9eb396e6e.png)
图中蓝色的Producer、Consumer和Broker的版本是相同的它们之间的通信可以享受Zero Copy的快速通道相反一个低版本的Consumer程序想要与Producer、Broker交互的话就只能依靠JVM堆中转一下丢掉了快捷通道就只能走慢速通道了。因此在优化Broker这一层时你只要保持服务器端和客户端版本的一致就能获得很多性能收益了。
### 应用层调优
现在,我们终于来到了漏斗的最顶层。其实,这一层的优化方法各异,毕竟每个应用程序都是不一样的。不过,有一些公共的法则依然是值得我们遵守的。
* **不要频繁地创建Producer和Consumer对象实例**。构造这些对象的开销很大,尽量复用它们。
* **用完及时关闭**。这些对象底层会创建很多物理资源如Socket连接、ByteBuffer缓冲区等。不及时关闭的话势必造成资源泄露。
* **合理利用多线程来改善性能**。Kafka的Java Producer是线程安全的你可以放心地在多个线程中共享同一个实例而Java Consumer虽不是线程安全的但我们在专栏[第20讲](https://time.geekbang.org/column/article/108512)讨论过多线程的方案,你可以回去复习一下。
## 性能指标调优
接下来我会给出调优各个目标的参数配置以及具体的配置原因希望它们能够帮助你更有针对性地调整你的Kafka集群。
### 调优吞吐量
首先是调优吞吐量。很多人对吞吐量和延时之间的关系似乎有些误解。比如有这样一种提法还挺流行的假设Kafka每发送一条消息需要花费2ms那么延时就是2ms。显然吞吐量就应该是500条/秒因为1秒可以发送1 / 0.002 = 500条消息。因此吞吐量和延时的关系可以用公式来表示TPS = 1000 / Latency(ms)。但实际上,吞吐量和延时的关系远不是这么简单。
我们以Kafka Producer为例。假设它以2ms的延时来发送消息如果每次只是发送一条消息那么TPS自然就是500条/秒。但如果Producer不是每次发送一条消息而是在发送前等待一段时间然后统一发送**一批**消息比如Producer每次发送前先等待8ms8ms之后Producer共缓存了1000条消息此时总延时就累加到10ms即 2ms + 8ms而TPS等于1000 / 0.01 = 100,000条/秒。由此可见虽然延时增加了4倍但TPS却增加了将近200倍。这其实也是批次化batching或微批次化micro-batching目前会很流行的原因。
在实际环境中用户似乎总是愿意用较小的延时增加的代价去换取TPS的显著提升。毕竟从2ms到10ms的延时增加通常是可以忍受的。事实上Kafka Producer就是采取了这样的设计思想。
当然你可能会问发送一条消息需要2ms那么等待8ms就能累积1000条消息吗答案是可以的Producer累积消息时一般仅仅是将消息发送到内存中的缓冲区而发送消息却需要涉及网络I/O传输。内存操作和I/O操作的时间量级是不同的前者通常是几百纳秒级别而后者则是从毫秒到秒级别不等因此Producer等待8ms积攒出的消息数可能远远多于同等时间内Producer能够发送的消息数。
好了说了这么多我们该怎么调优TPS呢我来跟你分享一个参数列表。
![](https://static001.geekbang.org/resource/image/7a/cb/7aec00207dc149bd804d20df6e3b9ccb.jpg)
我稍微解释一下表格中的内容。
Broker端参数num.replica.fetchers表示的是Follower副本用多少个线程来拉取消息默认使用1个线程。如果你的Broker端CPU资源很充足不妨适当调大该参数值加快Follower副本的同步速度。因为在实际生产环境中**配置了acks=all的Producer程序吞吐量被拖累的首要因素就是副本同步性能**。增加这个值后你通常可以看到Producer端程序的吞吐量增加。
另外需要注意的就是避免经常性的Full GC。目前不论是CMS收集器还是G1收集器其Full GC采用的是Stop The World的单线程收集策略非常慢因此一定要避免。
**在Producer端如果要改善吞吐量通常的标配是增加消息批次的大小以及批次缓存时间即batch.size和linger.ms**。目前它们的默认值都偏小特别是默认的16KB的消息批次大小一般都不适用于生产环境。假设你的消息体大小是1KB默认一个消息批次也就大约16条消息显然太小了。我们还是希望Producer能一次性发送更多的消息。
除了这两个你最好把压缩算法也配置上以减少网络I/O传输量从而间接提升吞吐量。当前和Kafka适配最好的两个压缩算法是**LZ4和zstd**,不妨一试。
同时由于我们的优化目标是吞吐量最好不要设置acks=all以及开启重试。前者引入的副本同步时间通常都是吞吐量的瓶颈而后者在执行过程中也会拉低Producer应用的吞吐量。
最后如果你在多个线程中共享一个Producer实例就可能会碰到缓冲区不够用的情形。倘若频繁地遭遇TimeoutExceptionFailed to allocate memory within the configured max blocking time这样的异常那么你就必须显式地增加**buffer.memory**参数值,确保缓冲区总是有空间可以申请的。
说完了Producer端我们来说说Consumer端。Consumer端提升吞吐量的手段是有限的你可以利用多线程方案增加整体吞吐量也可以增加fetch.min.bytes参数值。默认是1字节表示只要Kafka Broker端积攒了1字节的数据就可以返回给Consumer端这实在是太小了。我们还是让Broker端一次性多返回点数据吧。
### 调优延时
讲完了调优吞吐量,我们来说说如何优化延时,下面是调优延时的参数列表。
![](https://static001.geekbang.org/resource/image/26/3a/2688329a0614601fed497f3858c98e3a.jpg)
在Broker端我们依然要增加num.replica.fetchers值以加快Follower副本的拉取速度减少整个消息处理的延时。
在Producer端我们希望消息尽快地被发送出去因此不要有过多停留所以必须设置linger.ms=0同时不要启用压缩。因为压缩操作本身要消耗CPU时间会增加消息发送的延时。另外最好不要设置acks=all。我们刚刚在前面说过Follower副本同步往往是降低Producer端吞吐量和增加延时的首要原因。
在Consumer端我们保持fetch.min.bytes=1即可也就是说只要Broker端有能返回的数据立即令其返回给Consumer缩短Consumer消费延时。
## 小结
好了我们来小结一下。今天我跟你分享了Kafka调优方面的内容。我们先从调优目标开始说起然后我给出了调优层次漏斗接着我分享了一些基础性调优包括操作系统层调优、JVM层调优以及应用程序调优等。最后针对Kafka关心的两个性能指标吞吐量和延时我分别从Broker、Producer和Consumer三个维度给出了一些参数值设置的最佳实践。
最后,我来分享一个性能调优的真实小案例。
曾经我碰到过一个线上环境的问题该集群上Consumer程序一直表现良好但是某一天它的性能突然下降表现为吞吐量显著降低。我在查看磁盘读I/O使用率时发现其明显上升但之前该Consumer Lag很低消息读取应该都能直接命中页缓存。此时磁盘读突然飙升我就怀疑有其他程序写入了页缓存。后来经过排查我发现果然有一个测试Console Consumer程序启动“污染”了部分页缓存导致主业务Consumer读取消息不得不走物理磁盘因此吞吐量下降。找到了真实原因解决起来就简单多了。
其实,我给出这个案例的真实目的是想说,对于性能调优,我们最好按照今天给出的步骤一步一步地窄化和定位问题。一旦定位了原因,后面的优化就水到渠成了。
![](https://static001.geekbang.org/resource/image/d4/38/d40b07ca7bcc0fc43c5266b0b2c81c38.jpg)
## 开放讨论
请分享一个你调优Kafka的真实案例详细说说你是怎么碰到性能问题的又是怎么解决的。
欢迎写下你的思考和答案,我们一起讨论。如果你觉得有所收获,也欢迎把文章分享给你的朋友。