You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

118 lines
14 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 32 | 压力测试:怎样设计全链路压力测试平台?
你好,我是唐扬。
经过两节课的学习,我们已经搭建了服务端和客户端的监控,通过监控的报表和一些报警规则的设置,你可以实时地跟踪和解决垂直电商系统中出现的问题了。不过,你不能掉以轻心,因为监控只能发现目前系统中已经存在的问题,对于未来可能发生的性能问题是无能为力的。
一旦你的系统流量有大的增长,比如类似“双十一”的流量,那么你在面临性能问题时就可能会手足无措。为了解决后顾之忧,你需要了解在流量增长若干倍的时候,系统的哪些组件或者服务会成为整体系统的瓶颈点,这时你就需要做一次全链路的压力测试。
那么,什么是压力测试呢?要如何来做全链路的压测呢?这两个问题就是本节课重点讲解的内容。
## 什么是压力测试
压力测试(简称为压测)这个名词儿,你在业界的分享中一定听过很多次,当然了,你也可能在项目的研发过程中做过压力测试,所以,对于你来说,压力测试并不陌生。
不过我想让你回想一下自己是怎么做压力测试的是不是像很多同学一样先搭建一套与正式环境功能相同的测试环境并且导入或者生成一批测试数据然后在另一台服务器启动多个线程并发地调用需要压测的接口接口的参数一般也会设置成相同的比如想要压测获取商品信息的接口那么压测时会使用同一个商品ID。最后通过统计访问日志或者查看测试环境的监控系统来记录最终压测QPS是多少之后直接交差
这么做压力测试其实是不正确的,**错误之处主要有以下几点。**
1.首先,做压力测试时,最好使用线上的数据和线上的环境。因为,你无法确定自己搭建的测试环境与正式环境的差异,是否会影响到压力测试的结果。
2.其次,压力测试时不能使用模拟的请求而是要使用线上的流量。你可以通过拷贝流量的方式,把线上流量拷贝一份到压力测试环境。因为模拟流量的访问模型和线上流量相差很大,会对压力测试的结果产生比较大的影响。
比如你在获取商品信息的时候线上的流量会获取不同商品的数据这些商品的数据有的命中了缓存有的没有命中缓存。如果使用同一个商品ID来做压力测试那么只有第一次请求没有命中缓存而在请求之后会将数据库中的数据回种到缓存后续的请求就一定会命中缓存了这种压力测试的数据就不具备参考性了。
3.不要从一台服务器发起流量这样很容易达到这台服务器性能瓶颈从而导致压力测试的QPS上不去最终影响压力测试的结果。而且为了尽量真实地模拟用户请求我们倾向于把流量产生的机器放在离用户更近的位置比如放在CDN节点上。如果没有这个条件那么可以放在不同的机房中这样可以尽量保证压力测试结果的真实性。
之所以有很多同学出现这个问题,主要是对压力测试的概念没有完全理解,以为只要是使用多个线程并发的请求服务接口,就算是对接口进行压力测试了。
**那么究竟什么是压力测试呢?**压力测试指的是在高并发大流量下进行的测试,测试人员可以通过观察系统在峰值负载下的表现,从而找到系统中存在的性能隐患。
与监控一样,压力测试是一种常见的发现系统中存在问题的方式,也是保障系统可用性和稳定性的重要手段。而在压力测试的过程中,我们不能只针对某一个核心模块来做压测,而需要将接入层、所有后端服务、数据库、缓存、消息队列、中间件以及依赖的第三方服务系统及其资源,都纳入压力测试的目标之中。因为,一旦用户的访问行为增加,包含上述组件服务的整个链路都会受到不确定的大流量的冲击。因此,它们都需要依赖压力测试来发现可能存在的性能瓶颈,**这种针对整个调用链路执行的压力测试也称为“全链路压测”。**
由于在互联网项目中功能迭代的速度很快系统的复杂性也变得越来越高新增加的功能和代码很可能会成为新的性能瓶颈点。也许半年前做压力测试时单台机器可以承担每秒1000次请求现在很可能就承担每秒800次请求了。所以压力测试应该作为系统稳定性保障的常规手段周期性地进行。
但是通常做一次全链路压力测试需要联合DBA、运维、依赖服务方、中间件架构等多个团队一起协同进行无论是人力成本还是沟通协调的成本都比较高。同时在压力测试的过程中如果没有很好的监控机制那么还会对线上系统造成不利的影响。**为了解决这些问题,我们需要搭建一套自动化的全链路压测平台来降低成本和风险。**
## 如何搭建全链路压测平台
搭建全链路压测平台,主要有两个关键点。
一点是流量的隔离。由于压力测试是在正式环境进行,所以需要区分压力测试流量和正式流量,这样可以针对压力测试的流量做单独的处理。
另一点是风险的控制。也就是尽量避免压力测试对于正常访问用户的影响。因此,一般来说全链路压测平台需要包含以下几个模块:
* 流量构造和产生模块;
* 压测数据隔离模块;
* 系统健康度检查和压测流量干预模块。
整体压测平台的架构图可以是下面这样的:
![](https://static001.geekbang.org/resource/image/15/ff/1552e524d495bb7e129405578b7907ff.jpg)
为了让你能够更清晰地了解每一个模块是如何实现的,方便你来设计适合自身业务的全链路压测平台,我会对压测平台的每一个模块做更细致的介绍。先来看看压力测试的流量是如何产生的。
#### 压测数据的产生
一般来说我们系统的入口流量是来自于客户端的HTTP请求。所以我们会考虑在系统高峰期时将这些入口流量拷贝一份在经过一些流量清洗的工作之后比如过滤一些无效的请求将数据存储在像是HBase、MongoDB这些NoSQL存储组件或者亚马逊S3这些云存储服务中我们称之为流量数据工厂。
这样,当我们要压测的时候,就可以从这个工厂中获取数据,将数据切分多份后下发到多个压测节点上了。**在这里,我想强调几个,你需要特殊注意的点。**
首先,我们可以使用多种方式来实现流量的拷贝。最简单的一种方式:直接拷贝负载均衡服务器的访问日志,数据就以文本的方式写入到流量数据工厂中。但是这样产生的数据在发起压测时,需要自己写解析的脚本来解析访问日志,会增加压测时候的成本,不太建议使用。
另一种方式:通过一些开源的工具来实现流量的拷贝。这里,我推荐一款轻型的流量拷贝工具[GoReplay](https://github.com/buger/goreplay),它可以劫持本机某一个端口的流量,将它们记录在文件中,传送到流量数据工厂中。在压测时,你也可以使用这个工具进行加速的流量回放,这样就可以实现对正式环境的压力测试了。
其次,如上文中提到,我们在下发压测流量时,需要保证下发流量的节点与用户更加接近,起码不能和服务部署节点在同一个机房中,这样可以尽量保证压测数据的真实性。
另外我们还需要对压测流量染色也就是增加压测标记。在实际项目中我会在HTTP的请求头中增加一个标记项比如说叫做is stress test在流量拷贝之后批量在请求中增加这个标记项再写入到数据流量工厂中。
#### 数据如何隔离
将压测流量拷贝下来的同时,我们也需要考虑对系统做改造,以实现压测流量和正式流量的隔离,这样一来就会尽量避免压测对线上系统的影响。一般来说,我们需要做两方面的事情。
一方面针对读取数据的请求一般称之为下行流量我们会针对某些不能压测的服务或者组件做Mock或者特殊的处理举个例子。
在业务开发中,我们一般会依据请求记录用户的行为,比如,用户请求了某个商品的页面,我们会记录这个商品多了一次浏览的行为,这些行为数据会写入一份单独的大数据日志中,再传输给数据分析部门,形成业务报表给到产品或者老板做业务的分析决策。
在压测的时候,肯定会增加这些行为数据,比如原本一天商品页面的浏览行为是一亿次,而压测之后变成了十亿次,这样就会对业务报表产生影响,影响后续的产品方向的决策。因此,我们对于这些压测产生的用户行为做特殊处理,不再记录到大数据日志中。
再比如,我们系统会依赖一些推荐服务,推荐一些你可能感兴趣的商品,但是这些数据的展示有一个特点就是展示过的商品就不再会被推荐出来。如果你的压测流量经过这些推荐服务,大量的商品就会被压测流量请求到,线上的用户就不会再看到这些商品了,也就会影响推荐的效果。
所以我们需要Mock这些推荐服务让不带有压测标记的请求经过推荐服务而让带有压测标记的请求经过Mock服务。搭建Mock服务你需要注意一点这些Mock服务最好部署在真实服务所在的机房这样可以尽量模拟真实的服务部署结构提高压测结果的真实性。
另一方面,针对写入数据的请求(一般称之为上行流量),我们会把压测流量产生的数据写入到影子库,也就是和线上数据存储完全隔离的一份存储系统中。针对不同的存储类型,我们会使用不同的影子库的搭建方式。
1. 如果数据存储在MySQL中我们可以在同一个MySQL实例不同的Schema中创建一套和线上相同的库表结构并且把线上的数据也导入进来。
2. 而如果数据是放在Redis中我们对压测流量产生的数据增加一个统一的前缀存储在同一份存储中。
3. 还有一些数据会存储在Elasticsearch中针对这部分数据我们可以放在另外一个单独的索引表中。
通过对下行流量的特殊处理以及对上行流量增加影子库的方式,我们就可以实现压测流量的隔离了。
#### 压力测试如何实施
在拷贝了线上流量和完成了对线上系统的改造之后我们就可以进行压力测试的实施了。在此之前一般会设立一个压力测试的目标比如说整体系统的QPS需要达到每秒20万。
不过在压测时不会一下子把请求量增加到每秒20万次而是按照一定的步长比如每次压测增加一万QPS逐渐地增加流量。在增加一次流量之后让系统稳定运行一段时间观察系统在性能上的表现。如果发现依赖的服务或者组件出现了瓶颈可以先减少压测流量比如回退到上一次压测的QPS保证服务的稳定再针对此服务或者组件进行扩容然后再继续增加流量压测。
为了能够减少压力测试过程中人力投入成本可以开发一个流量监控的组件在这个组件中预先设定一些性能阈值。比如容器的CPU使用率的阈值可以设定为60%70%系统的平均响应时间的上限可以设定为1秒系统慢请求的比例设置为1%等等。
当系统性能达到这个阈值之后,流量监控组件可以及时发现,并且通知压测流量下发组件减少压测流量,并且发送报警给到开发和运维的同学,开发和运维同学就迅速地排查性能瓶颈,在解决问题或者扩容之后再继续执行压测。
业界关于全链路压测平台的探索有很多,一些大厂比如阿里、京东、美团和微博都有了适合自身业务的全链路压测平台。在我看来,这些压测平台万变不离其宗,都无非是经过流量拷贝、流量染色隔离、打压、监控熔断等步骤,与本课程中介绍的核心思想都是相通的。因此,你在考虑自研适合自己项目的全链路压测平台时,也可以遵循这个成熟的套路。
## 课程小结
本节课,我带你了解了做压力测试常见的误区,以及自动化的全链路压测平台的搭建过程,这里你需要了解的重点是:
1. 压力测试是一种发现系统性能隐患的重要手段,所以应该尽量使用正式的环境和数据;
2. 对压测的流量需要增加标记这样就可以通过Mock第三方依赖服务和影子库的方式来实现压测数据和正式数据的隔离
3. 压测时,应该实时地对系统性能指标做监控和告警,及时地对出现瓶颈的资源或者服务扩容,避免对正式环境产生影响。
**这套全链路的压力测试系统对于我们来说有三方面的价值:**其一,它可以帮助我们发现系统中可能出现的性能瓶颈,方便我们提前准备预案来应对;其次,它也可以为我们做容量评估,提供数据上的支撑;最后,我们也可以在压测的时候做预案演练,因为压测一般会安排在流量的低峰期进行,这样我们可以降级一些服务来验证预案效果,并且可以尽量减少对线上用户的影响。所以,随着你的系统流量的快速增长,你也需要及时考虑搭建这么一套全链路压测平台,来保证你的系统的稳定性。
## 一课一思
在实际的工作中,你的系统的压力测试是如何进行的呢?在压力测试的过程中发现了哪些性能瓶颈点呢?欢迎在留言区与我分享你的经验。
最后,感谢你的阅读,如果这篇文章让你有所收获,也欢迎你将它分享给更多的朋友。