You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

114 lines
10 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 15 | Kafka如何实现高性能IO
你好,我是李玥。
Apache Kafka是一个高性能的消息队列在众多消息队列产品中Kafka的性能绝对是处于第一梯队的。我曾经在一台配置比较好的服务器上对Kafka做过极限的性能压测Kafka单个节点的极限处理能力接近每秒钟2000万条消息吞吐量达到每秒钟600MB。
你可能会问Kafka是如何做到这么高的性能的
我们在专栏“进阶篇”的前几节课讲的知识点一直围绕着同一个主题怎么开发一个高性能的网络应用程序。其中提到了像全异步化的线程模型、高性能的异步网络传输、自定义的私有传输协议和序列化、反序列化等等这些方法和优化技巧你都可以在Kafka的源代码中找到对应的实现。
在性能优化方面除了这些通用的性能优化手段之外Kafka还有哪些“独门绝技”呢
这节课,我来为你一一揭晓这些绝技。
## 使用批量消息提升服务端处理能力
我们知道批量处理是一种非常有效的提升系统吞吐量的方法。在Kafka内部消息都是以“批”为单位处理的。一批消息从发送端到接收端是如何在Kafka中流转的呢
我们先来看发送端也就是Producer这一端。
在Kafka的客户端SDK软件开发工具包Kafka的Producer只提供了单条发送的send()方法并没有提供任何批量发送的接口。原因是Kafka根本就没有提供单条发送的功能是的你没有看错虽然它提供的API每次只能发送一条消息但实际上Kafka的客户端SDK在实现消息发送逻辑的时候采用了异步批量发送的机制。
当你调用send()方法发送一条消息之后无论你是同步发送还是异步发送Kafka都不会立即就把这条消息发送出去。它会先把这条消息存放在内存中缓存起来然后选择合适的时机把缓存中的所有消息组成一批一次性发给Broker。简单地说就是攒一波一起发。
在Kafka的服务端也就是Broker这一端又是如何处理这一批一批的消息呢
在服务端Kafka不会把一批消息再还原成多条消息再一条一条地处理这样太慢了。Kafka这块儿处理的非常聪明每批消息都会被当做一个“批消息”来处理。也就是说在Broker整个处理流程中无论是写入磁盘、从磁盘读出来、还是复制到其他副本这些流程中**批消息都不会被解开,一直是作为一条“批消息”来进行处理的。**
在消费时消息同样是以批为单位进行传递的Consumer从Broker拉到一批消息后在客户端把批消息解开再一条一条交给用户代码处理。
比如说你在客户端发送30条消息在业务程序看来是发送了30条消息而对于Kafka的Broker来说它其实就是处理了1条包含30条消息的“批消息”而已。显然处理1次请求要比处理30次请求要快得多。
构建批消息和解开批消息分别在发送端和消费端的客户端完成不仅减轻了Broker的压力最重要的是减少了Broker处理请求的次数提升了总体的处理能力。
这就是Kafka用批量消息提升性能的方法。
我们知道相比于网络传输和内存磁盘IO的速度是比较慢的。对于消息队列的服务端来说性能的瓶颈主要在磁盘IO这一块。接下来我们看一下Kafka在磁盘IO这块儿做了哪些优化。
## 使用顺序读写提升磁盘IO性能
对于磁盘来说它有一个特性就是顺序读写的性能要远远好于随机读写。在SSD固态硬盘顺序读写的性能要比随机读写快几倍如果是机械硬盘这个差距会达到几十倍。为什么呢
操作系统每次从磁盘读写数据的时候,需要先寻址,也就是先要找到数据在磁盘上的物理位置,然后再进行数据读写。如果是机械硬盘,这个寻址需要比较长的时间,因为它要移动磁头,这是个机械运动,机械硬盘工作的时候会发出咔咔的声音,就是移动磁头发出的声音。
顺序读写相比随机读写省去了大部分的寻址时间,它只要寻址一次,就可以连续地读写下去,所以说,性能要比随机读写要好很多。
Kafka就是充分利用了磁盘的这个特性。它的存储设计非常简单对于每个分区它把从Producer收到的消息顺序地写入对应的log文件中一个文件写满了就开启一个新的文件这样顺序写下去。消费的时候也是从某个全局的位置开始也就是某一个log文件中的某个位置开始顺序地把消息读出来。
这样一个简单的设计充分利用了顺序读写这个特性极大提升了Kafka在使用磁盘时的IO性能。
接下来我们说一下Kafka是如何实现缓存的。
## 利用PageCache加速消息读写
在Kafka中它会利用PageCache加速消息读写。PageCache是现代操作系统都具有的一项基本特性。通俗地说PageCache就是操作系统在内存中给磁盘上的文件建立的缓存。无论我们使用什么语言编写的程序在调用系统的API读写文件的时候并不会直接去读写磁盘上的文件应用程序实际操作的都是PageCache也就是文件在内存中缓存的副本。
应用程序在写入文件的时候操作系统会先把数据写入到内存中的PageCache然后再一批一批地写到磁盘上。读取文件的时候也是从PageCache中来读取数据这时候会出现两种可能情况。
一种是PageCache中有数据那就直接读取这样就节省了从磁盘上读取数据的时间另一种情况是PageCache中没有数据这时候操作系统会引发一个缺页中断应用程序的读取线程会被阻塞操作系统把数据从文件中复制到PageCache中然后应用程序再从PageCache中继续把数据读出来这时会真正读一次磁盘上的文件这个读的过程就会比较慢。
用户的应用程序在使用完某块PageCache后操作系统并不会立刻就清除这个PageCache而是尽可能地利用空闲的物理内存保存这些PageCache除非系统内存不够用操作系统才会清理掉一部分PageCache。清理的策略一般是LRU或它的变种算法这个算法我们不展开讲它保留PageCache的逻辑是优先保留最近一段时间最常使用的那些PageCache。
Kafka在读写消息文件的时候充分利用了PageCache的特性。一般来说消息刚刚写入到服务端就会被消费按照LRU的“优先清除最近最少使用的页”这种策略读取的时候对于这种刚刚写入的PageCache命中的几率会非常高。
也就是说大部分情况下消费读消息都会命中PageCache带来的好处有两个一个是读取的速度会非常快另外一个是给写入消息让出磁盘的IO资源间接也提升了写入的性能。
## ZeroCopy零拷贝技术
Kafka的服务端在消费过程中还使用了一种“零拷贝”的操作系统特性来进一步提升消费的性能。
我们知道,在服务端,处理消费的大致逻辑是这样的:
* 首先,从文件中找到消息数据,读到内存中;
* 然后,把消息通过网络发给客户端。
这个过程中数据实际上做了2次或者3次复制
1. 从文件复制数据到PageCache中如果命中PageCache这一步可以省掉
2. 从PageCache复制到应用程序的内存空间中也就是我们可以操作的对象所在的内存
3. 从应用程序的内存空间复制到Socket的缓冲区这个过程就是我们调用网络应用框架的API发送数据的过程。
Kafka使用零拷贝技术可以把这个复制次数减少一次上面的2、3步骤两次复制合并成一次复制。直接从PageCache中把数据复制到Socket缓冲区中这样不仅减少一次数据复制更重要的是由于不用把数据复制到用户内存空间DMA控制器可以直接完成数据复制不需要CPU参与速度更快。
下面是这个零拷贝对应的系统调用:
```
#include <sys/socket.h>
ssize_t sendfile(int out_fd, int in_fd, off_t *offset, size_t count);
```
它的前两个参数分别是目的端和源端的文件描述符,后面两个参数是源端的偏移量和复制数据的长度,返回值是实际复制数据的长度。
如果你遇到这种从文件读出数据后再通过网络发送出去的场景,并且这个过程中你不需要对这些数据进行处理,那一定要使用这个零拷贝的方法,可以有效地提升性能。
## 小结
这节课我们总结了Kafka的高性能设计中的几个关键的技术点
* 使用批量处理的方式来提升系统吞吐能力。
* 基于磁盘文件高性能顺序读写的特性来设计的存储结构。
* 利用操作系统的PageCache来缓存数据减少IO并提升读性能。
* 使用零拷贝技术加速消费流程。
以上这些就是Kafka之所以能做到如此高性能的关键技术点。你可以看到要真正实现一个高性能的消息队列是非常不容易的你需要熟练掌握非常多的编程语言和操作系统的底层技术。
这些优化的方法和技术,同样可以用在其他适合的场景和应用程序中。我希望你能充分理解这几项优化技术的原理,知道它们在什么情况下适用,什么情况下不适用。这样,当你遇到合适场景的时候,再深入去学习它的细节用法,最终就能把它真正地用到你开发的程序中。
## 思考题
课后我希望你去读一读Kafka的源代码从我们这节课中找一两个技术点找到对应的代码部分真正去看一下我们说的这些优化技术是如何落地到代码上的。在分析源代码的过程中如果有任何问题也欢迎你在留言区和我一起讨论。
感谢阅读,如果你觉得这篇文章对你有帮助的话,也欢迎把它分享给你的朋友。