gitbook/消息队列高手课/docs/131826.md

109 lines
10 KiB
Markdown
Raw Permalink Normal View History

2022-09-03 22:05:03 +08:00
# 19 | 数据压缩:时间换空间的游戏
你好,我是李玥。
这节课我们一起来聊一聊数据压缩。我在前面文章中提到过我曾经在一台配置比较高的服务器上对Kafka做过一个极限的性能压测想验证一下Kafka到底有多快。我使用的种子消息大小为1KB只要是并发数量足够多不开启压缩时可以打满万兆网卡的全部带宽TPS接近100万。开启压缩时TPS可以达到2000万左右吞吐量提升了大约20倍
算术好的同学可能会立刻反驳我说2000万TPS乘以1KB的消息大小再把字节Byte转换成比特bit换算成网络传输的带宽是200Gb/s服务器网卡根本达不到这么大的传输带宽
我们的测试服务器的网卡就是普通的万兆网卡极限带宽也就是10Gb/s压测时候的实际网络流量大概在7Gb/s左右。这里面最重要的原因就是我在测试的时候开启了Kafka的压缩功能。可以看到对于Kafka来说使用数据压缩提升了大概几十倍的吞吐量。当然在实际生产时不太可能达到这么高的压缩率但是合理地使用数据压缩仍然可以做到提升数倍的吞吐量。
所以,**数据压缩不仅能节省存储空间,还可以用于提升网络传输性能。**这种使用压缩来提升系统性能的方法,不仅限于在消息队列中使用,我们日常开发的应用程序也可以使用。比如,我们的程序要传输大量的数据,或者要在磁盘、数据库中存储比较大的数据,这些情况下,都可以考虑使用数据压缩来提升性能,还能节省网络带宽和存储空间。
那如何在你的程序中使用压缩?应该选择什么样的压缩算法更适合我们的系统呢?这节课,我带你一起学习一下,使用数据压缩来提升系统性能的方法。
## 什么情况适合使用数据压缩?
在使用压缩之前,首先你需要考虑,当前这个场景是不是真的适合使用数据压缩。
比如,进程之间通过网络传输数据,这个数据是不是需要压缩呢?我和你一起来对比一下:
* 不压缩直接传输需要的时间是: 传输**未压缩**数据的耗时。
* 使用数据压缩需要的时间是: 压缩耗时 + 传输**压缩**数据耗时 + 解压耗时。
到底是压缩快,还是不压缩快呢?其实不好说。影响的因素非常多,比如数据的压缩率、网络带宽、收发两端服务器的繁忙程度等等。
压缩和解压的操作都是计算密集型的操作非常耗费CPU资源。如果你的应用处理业务逻辑就需要耗费大量的CPU资源就不太适合再进行压缩和解压。
又比如说如果你的系统的瓶颈是磁盘的IO性能CPU资源又很闲这种情况就非常适合在把数据写入磁盘前先进行压缩。
但是,如果你的系统读写比严重不均衡,你还要考虑,每读一次数据就要解压一次是不是划算。
**压缩它的本质是资源的置换是一个时间换空间或者说是CPU资源换存储资源的游戏。**
就像木桶的那个短板一样每一个系统它都有一个性能瓶颈资源可能是磁盘IO网络带宽也可能是CPU。如果使用压缩能用长板来换一些短板那总体上就能提升性能这样就是划算的。如果用了压缩之后短板更短了那就不划算了不如不用。
如果通过权衡,使用数据压缩确实可以提升系统的性能,接下来就需要选择合适的压缩算法。
## 应该选择什么压缩算法?
压缩算法可以分为有损压缩和无损压缩。有损压缩主要是用来压缩音视频它压缩之后是会丢失信息的。我们这里讨论的全都是无损压缩也就是说数据经过压缩和解压过程之后与压缩之前相比是100%相同的。
数据为什么可以被压缩呢?各种各样的压缩算法又是怎么去压缩数据的呢?我举个例子来简单说明一下。
比如说,下面这段数据:
> 00000000000000000000
我来给你人肉压缩一下:
> 20个0
20个字符就被压缩成了4个字符并且是可以无损还原的。当然我举的例子比较极端我的压缩算法也几乎没什么实用性但是这确实是一个压缩算法并且和其他的压缩算法本质是没什么区别的。
目前常用的压缩算法包括ZIPGZIPSNAPPYLZ4等等。选择压缩算法的时候主要需要考虑数据的压缩率和压缩耗时。一般来说压缩率越高的算法压缩耗时也越高。如果是对性能要求高的系统可以选择压缩速度快的算法比如LZ4如果需要更高的压缩比可以考虑GZIP或者压缩率更高的XZ等算法。
压缩样本对压缩速度和压缩比的影响也是比较大的,同样大小的一段数字和一段新闻的文本,即使是使用相同的压缩算法,压缩率和压缩时间的差异也是比较大的。所以,有的时候在选择压缩算法的之前,用系统的样例业务数据做一个测试,可以帮助你找到最合适的压缩算法。
在这里我不会去给你讲某一种压缩算法因为压缩算法都很复杂一般来说也不需要我们来实现某种压缩算法如果你感兴趣的话可以去学习一下最经典压缩算法哈夫曼编码也叫霍夫曼编码Huffman Coding
## 如何选择合适的压缩分段?
大部分的压缩算法,他们的区别主要是,对数据进行编码的算法,压缩的流程和压缩包的结构大致一样的。而在压缩过程中,你最需要了解的就是如何选择合适的压缩分段大小。
在压缩时,给定的被压缩数据它必须有确定的长度,或者说,是有头有尾的,不能是一个无限的数据流,**如果要对流数据进行压缩,那必须把流数据划分成多个帧,一帧一帧的分段压缩。**
主要原因是,压缩算法在开始压缩之前,一般都需要对被压缩数据从头到尾进行一次扫描,扫描的目的是确定如何对数据进行划分和编码,一般的原则是重复次数多、占用空间大的内容,使用尽量短的编码,这样压缩率会更高。
另外,被压缩的数据长度越大,重码率会更高,压缩比也就越高。这个很好理解,比如我们这篇文章,可能出现了几十次“压缩”这个词,如果将整篇文章压缩,这个词的重复率是几十次,但如果我们按照每个自然段来压缩,那每段中这个词的重复率只有二三次。显然全文压缩的压缩率肯定高于分段压缩。
当然分段也不是越大越好实际上分段大小超过一定长度之后再增加长度对压缩率的贡献就不太大了这是一个原因。另外过大的分段长度在解压缩的时候会有更多的解压浪费。比如一个1MB大小的压缩文件即使你只是需要读其中很短的几个字节也不得不把整个文件全部解压缩造成很大的解压浪费。
所以,你需要根据你的业务,选择合适的压缩分段,在压缩率、压缩速度和解压浪费之间找到一个合适的平衡。
确定了如何对数据进行划分和压缩算法之后,就可以进行压缩了,压缩的过程就是用编码来替换原始数据的过程。压缩之后的压缩包就是由这个编码字典和用编码替换之后的数据组成的。
这就是数据压缩的过程。解压的时候,先读取编码字典,然后按照字典把压缩编码还原成原始的数据就可以了。
## Kafka是如何处理消息压缩的
回过头来我们再看一下Kafka它是如何来处理数据压缩的。
首先Kafka是否开启压缩这是可以配置它也支持配置使用哪一种压缩算法。原因我们在上面说过不同的业务场景是否需要开启压缩选择哪种压缩算法是不能一概而论的。所以Kafka的设计者把这个选择权交给使用者。
在开启压缩时Kafka选择一批消息一起压缩每一个批消息就是一个压缩分段。使用者也可以通过参数来控制每批消息的大小。
我们之前讲过在Kafka中生产者生成一个批消息发给服务端在服务端中是不会拆分批消息的。那按照批来压缩意味着在服务端也不用对这批消息进行解压可以整批直接存储然后整批发送给消费者。最后批消息由消费者进行解压。
在服务端不用解压就不会耗费服务端宝贵的CPU资源同时还能获得压缩后占用传输带宽小占用存储空间小的这些好处这是一个非常聪明的设计。
在使用Kafka时如果生产者和消费者的CPU资源不是特别吃紧开启压缩后可以节省网络带宽和服务端的存储空间提升总体的吞吐量一般都是个不错的选择。
## 小结
数据压缩它本质上是用CPU资源换取存储资源或者说是用压缩解压的时间来换取存储的空间这个买卖是不是划算需要你根据自己的情况先衡量一下。
在选择压缩算法的时候,需要综合考虑压缩时间和压缩率两个因素,被压缩数据的内容也是影响压缩时间和压缩率的重要因素,必要的时候可以先用业务数据做一个压缩测试,这样有助于选择最合适的压缩算法。
另外一个影响压缩率的重要因素是压缩分段的大小,你需要根据业务情况选择一个合适的分段策略,在保证不错的压缩率的前提下,尽量减少解压浪费。
最后我们讲了一下Kafka它是如何处理消息压缩的。Kafka在生产者上对每批消息进行压缩批消息在服务端不解压消费者在收到消息之后再进行解压。简单地说Kafka的压缩和解压都是在客户端完成的。
## 思考题
课后你可以去看一下RocketMQ的文档或者源代码看一下RocketMQ是怎么处理消息压缩的。然后和Kafka的压缩方式对比一下想一想哪种处理方式更适合你的系统
欢迎你在留言区把你的思考分享出来,如果有任何问题也欢迎你在留言区提问。
感谢阅读,如果你觉得这篇文章对你有一些启发,也欢迎把它分享给你的朋友。