You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

112 lines
11 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 54 | 理解Disruptor带你体会CPU高速缓存的风驰电掣
坚持到底就是胜利终于我们一起来到了专栏的最后一个主题。让我一起带你来看一看CPU到底能有多快。在接下来的两讲里我会带你一起来看一个开源项目Disruptor。看看我们怎么利用CPU和高速缓存的硬件特性来设计一个对于性能有极限追求的系统。
不知道你还记不记得,在[第37讲](https://time.geekbang.org/column/article/107477)里为了优化4毫秒专门铺设光纤的故事。实际上最在意极限性能的并不是互联网公司而是高频交易公司。我们今天讲解的Disruptor就是由一家专门做高频交易的公司LMAX开源出来的。
有意思的是Disruptor的开发语言并不是很多人心目中最容易做到性能极限的C/C++而是性能受限于JVM的Java。这到底是怎么一回事呢那通过这一讲你就能体会到其实只要通晓硬件层面的原理即使是像Java这样的高级语言也能够把CPU的性能发挥到极限。
## Padding Cache Line体验高速缓存的威力
我们先来看看Disruptor里面一段神奇的代码。这段代码里Disruptor在RingBufferPad这个类里面定义了p1p2一直到p7 这样7个long类型的变量。
```
abstract class RingBufferPad
{
protected long p1, p2, p3, p4, p5, p6, p7;
}
```
我在看到这段代码的第一反应是变量名取得不规范p1-p7这样的变量名没有明确的意义啊。不过当我深入了解了Disruptor的设计和源代码才发现这些变量名取得恰如其分。因为这些变量就是没有实际意义只是帮助我们进行**缓存行填充**Padding Cache Line使得我们能够尽可能地用上CPU高速缓存CPU Cache。那么缓存行填充这个黑科技到底是什么样的呢我们接着往下看。
不知道你还记不记得,我们在[35讲](https://time.geekbang.org/column/article/107422)里面的这个表格。如果访问内置在CPU里的L1 Cache或者L2 Cache访问延时是内存的1/15乃至1/100。而内存的访问速度其实是远远慢于CPU的。想要追求极限性能需要我们尽可能地多从CPU Cache里面拿数据而不是从内存里面拿数据。
![](https://static001.geekbang.org/resource/image/d3/a6/d39b0f2b3962d646133d450541fb75a6.png)
CPU Cache装载内存里面的数据不是一个一个字段加载的而是加载一整个缓存行。举个例子如果我们定义了一个长度为64的long类型的数组。那么数据从内存加载到CPU Cache里面的时候不是一个一个数组元素加载的而是一次性加载固定长度的一个缓存行。
我们现在的64位Intel CPU的计算机缓存行通常是64个字节Bytes。一个long类型的数据需要8个字节所以我们一下子会加载8个long类型的数据。也就是说一次加载数组里面连续的8个数值。这样的加载方式使得我们遍历数组元素的时候会很快。因为后面连续7次的数据访问都会命中缓存不需要重新从内存里面去读取数据。这个性能层面的好处我在第37讲的第一个例子里面为你演示过印象不深的话可以返回去看看。
但是在我们不使用数组而是使用单独的变量的时候这里就会出现问题了。在Disruptor的RingBuffer环形缓冲区的代码里面定义了一个RingBufferFields类里面有indexMask和其他几个变量用来存放RingBuffer的内部状态信息。
![](https://static001.geekbang.org/resource/image/23/f6/23adbbc656243ce85fdb8c7fab42ecf6.jpeg)
CPU在加载数据的时候自然也会把这个数据从内存加载到高速缓存里面来。不过这个时候高速缓存里面除了这个数据还会加载这个数据前后定义的其他变量。这个时候问题就来了。Disruptor是一个多线程的服务器框架在这个数据前后定义的其他变量可能会被多个不同的线程去更新数据、读取数据。这些写入以及读取的请求会来自于不同的 CPU Core。于是为了保证数据的同步更新我们不得不把CPU Cache里面的数据重新写回到内存里面去或者重新从内存里面加载数据。
而我们刚刚说过这些CPU Cache的写回和加载都不是以一个变量作为单位的。这些动作都是以整个Cache Line作为单位的。所以当INITIAL\_CURSOR\_VALUE 前后的那些变量被写回到内存的时候,这个字段自己也写回到了内存,这个常量的缓存也就失效了。当我们要再次读取这个值的时候,要再重新从内存读取。这也就意味着,读取速度大大变慢了。
```
......
abstract class RingBufferPad
{
protected long p1, p2, p3, p4, p5, p6, p7;
}
abstract class RingBufferFields<E> extends RingBufferPad
{
......
private final long indexMask;
private final Object[] entries;
protected final int bufferSize;
protected final Sequencer sequencer;
......
}
public final class RingBuffer<E> extends RingBufferFields<E> implements Cursored, EventSequencer<E>, EventSink<E>
{
......
protected long p1, p2, p3, p4, p5, p6, p7;
......
}
```
![](https://static001.geekbang.org/resource/image/93/b1/9330b8fb1e8de3f62d34c6f85f268db1.jpeg)
面临这样一个情况Disruptor里发明了一个神奇的代码技巧这个技巧就是缓存行填充。Disruptor 在 RingBufferFields里面定义的变量的前后分别定义了7个long类型的变量。前面的7个来自继承的 RingBufferPad 类后面的7个则是直接定义在 RingBuffer 类里面。这14个变量没有任何实际的用途。我们既不会去读他们也不会去写他们。
而RingBufferFields里面定义的这些变量都是final的第一次写入之后不会再进行修改。所以一旦它被加载到CPU Cache之后只要被频繁地读取访问就不会再被换出Cache了。这也就意味着对于这个值的读取速度会是一直是CPU Cache的访问速度而不是内存的访问速度。
## 使用RingBuffer利用缓存和分支预测
其实这个利用CPU Cache的性能的思路贯穿了整个Disruptor。Disruptor整个框架其实就是一个高速的[生产者-消费者模型](https://en.wikipedia.org/wiki/Producer%E2%80%93consumer_problem)Producer-Consumer下的队列。生产者不停地往队列里面生产新的需要处理的任务而消费者不停地从队列里面处理掉这些任务。
![](https://static001.geekbang.org/resource/image/65/56/659082942118e7c69eb3807b00f5f556.jpeg)
如果你熟悉算法和数据结构,那你应该非常清楚,如果要实现一个队列,最合适的数据结构应该是链表。我们只要维护好链表的头和尾,就能很容易实现一个队列。生产者只要不断地往链表的尾部不断插入新的节点,而消费者只需要不断从头部取出最老的节点进行处理就好了。我们可以很容易实现生产者-消费者模型。实际上Java自己的基础库里面就有LinkedBlockingQueue这样的队列库可以直接用在生产者-消费者模式上。
![](https://static001.geekbang.org/resource/image/45/0e/45d4c7c8b0cb1f056684199e39660f0e.jpeg)
不过Disruptor里面并没有用LinkedBlockingQueue而是使用了一个RingBuffer这样的数据结构这个RingBuffer的底层实现则是一个固定长度的数组。比起链表形式的实现数组的数据在内存里面会存在空间局部性。
就像上面我们看到的数组的连续多个元素会一并加载到CPU Cache里面来所以访问遍历的速度会更快。而链表里面各个节点的数据多半不会出现在相邻的内存空间自然也就享受不到整个Cache Line加载后数据连续从高速缓存里面被访问到的优势。
除此之外数据的遍历访问还有一个很大的优势就是CPU层面的分支预测会很准确。这可以使得我们更有效地利用了CPU里面的多级流水线我们的程序就会跑得更快。这一部分的原理如果你已经不太记得了可以回过头去复习一下[第25讲](https://time.geekbang.org/column/article/102166)关于分支预测的内容。
## 总结延伸
好了不知道讲完这些你有没有体会到Disruptor这个框架的神奇之处呢
CPU从内存加载数据到CPU Cache里面的时候不是一个变量一个变量加载的而是加载固定长度的Cache Line。如果是加载数组里面的数据那么CPU就会加载到数组里面连续的多个数据。所以数组的遍历很容易享受到CPU Cache那风驰电掣的速度带来的红利。
对于类里面定义的单独的变量就不容易享受到CPU Cache红利了。因为这些字段虽然在内存层面会分配到一起但是实际应用的时候往往没有什么关联。于是就会出现多个CPU Core访问的情况下数据频繁在CPU Cache和内存里面来来回回的情况。而Disruptor很取巧地在需要频繁高速访问的变量也就是RingBufferFields里面的indexMask这些字段前后各定义了7个没有任何作用和读写请求的long类型的变量。
这样无论在内存的什么位置上这些变量所在的Cache Line都不会有任何写更新的请求。我们就可以始终在Cache Line里面读到它的值而不需要从内存里面去读取数据也就大大加速了Disruptor的性能。
这样的思路其实渗透在Disruptor这个开源框架的方方面面。作为一个生产者-消费者模型Disruptor并没有选择使用链表来实现一个队列而是使用了RingBuffer。RingBuffer底层的数据结构则是一个固定长度的数组。这个数组不仅让我们更容易用好CPU Cache对CPU执行过程中的分支预测也非常有利。更准确的分支预测可以使得我们更好地利用好CPU的流水线让代码跑得更快。
## 推荐阅读
今天讲的是Disruptor推荐的阅读内容自然是Disruptor的官方文档。作为一个开源项目Disruptor在自己[GitHub](https://github.com/LMAX-Exchange/disruptor/wiki/Introduction)上有很详细的设计文档,推荐你好好阅读一下。
这里面不仅包含了怎么用好Disruptor也包含了整个Disruptor框架的设计思路是一份很好的阅读学习材料。另外Disruptor的官方文档里还有很多文章、演讲详细介绍了这个框架很值得深入去看一看。Disruptor的源代码其实并不复杂很适合用来学习怎么阅读开源框架代码。
## 课后思考
今天我们讲解了缓存行填充你可以试试修改Disruptor的代码看看在没有缓存行填充和有缓存行填充的情况下的性能差异。你也可以尝试直接修改Disruptor的源码和[性能测试代码](https://github.com/LMAX-Exchange/disruptor/blob/master/src/perftest/java/com/lmax/disruptor/immutable/CustomPerformanceTest.java),看看运行的结果是什么样的。
欢迎你把你的测试结果写在留言区,和大家一起讨论、分享。如果有收获,你也可以把这篇文章分享给你的朋友。