You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

165 lines
13 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 28解决问题如何保证自动化测试的可信性
你好,我是柳胜。
咱们今天讨论一个十分影响自动化测试ROI的具体问题就是自动化测试的可信性。你可能听过健壮性稳定性但什么是自动化测试可信性呢
我说一个场景你就明白了当你的UI automation测试报告显示Login案例运行失败了查了Log之后发现是测试机上出了一个弹窗转移了浏览器的焦点导致失败。这种情况下就是自动化测试的失败 != 产品的Bug你白忙活了一通。
同样的另外一个场景你的API automation测试报告一直显示成功直到有一天生产环境发生了Bug你检查API test的执行日志才发现API的Response早就出了问题。一个字段的Default value从True变成了0但是Automation没有检查这个字段漏掉了Bug。这种情况下自动化测试的成功 = 产品没有问题, Bug泄漏了。
通过这两个例子,你能够看出来,可信性指的是自动化测试报告是否直接反映产品真实的质量状态。如果它经常误导报告的使用者,那么自动化测试快速可靠的价值就会大打折扣。你也没有信心把自动化测试当做一个服务,提供给开发人员和运维人员去使用。
如果你的自动化测试项目有可信性不足的问题,那怎么办呢?学完今天的内容,你就知道怎么用度量驱动来解决这个问题了。
## 可信性
我们首先分析一下自动化测试报告失信是怎么发生的。我们把测试结果的成功和失败,跟产品功能的正确和错误,做一个组合矩阵。
![图片](https://static001.geekbang.org/resource/image/06/d3/06396ffeea201324189162b19e742dd3.jpg?wh=1920x775)
结合矩阵我们可以看到四种情形:
1.产品功能出错的时候自动化测试会检测出来也报错这叫做True Positive真阳。
2.产品功能出错的时候但是自动化测试运行结果是成功这叫做False Negative假阴。
3.产品功能正确的时候自动化测试也运行成功这叫True Negative真阴。
4.产品功能正确的时候但自动化测试运行结果是失败这叫False Positive假阳。
真阴和真阳都是我们期望的,也就是说自动化测试的结果反映了产品功能质量状态。而假阳和假阴是我们要避免的,因为此时自动化测试的结果,歪曲了产品功能质量状态。
其中假阳的后果是浪费了自动化测试人员的维护时间,所以我管它叫做**测试噪声**。而假阴的后果是导致Bug没能被检测到泄漏到了生产环境中我管它叫做 **Bug泄漏**
我们期望能够避免假阴和假阳,那应该怎么做呢? 数据驱动的解决思路很简单,两步走:首先我们要能计算出来假阴和假阳的数量,然后找到降级它们的办法。
## 度量假阴和假阳
怎么度量假阴和假阳? 有几种思路来实现。
### 基于Bug的方式
第一种基于Bug的方式。
每一个自动化测试的失败会触发提交一个Bug然后交给自动化测试人员诊断。如果是真的Bug就移交给开发人员如果是假阳的话需要给Bug标记一个“Not a Bug”最后我们统计“Not a Bug”的Bug数量作为假阳的数量。
![图片](https://static001.geekbang.org/resource/image/f8/82/f8f949d8a6bdba1788ef89ceb1f13582.jpg?wh=1920x1777)
同样假阴也可以用Bug来度量。我们通过Bug溯源就可以知道Bug是在哪个阶段泄漏的如果是自动化测试泄漏的话那做一个标记“Automation Leakage” 最后再统计所有带有“Automation Leakage”标记的Bug作为假阴的数量。这样假阳和假阴的数量我们就都有了。
![图片](https://static001.geekbang.org/resource/image/f5/c3/f5f25d89eda889218ee46939a50aa1c3.jpg?wh=1920x1626)
这种基于Bug的方式从理论上看起来讲得通但我们要是实践起来就会发现其中的困难。有两个因素会导致你的统计不全面第一是需要增加人工的工作量第二是人的主观判断会影响到度量结果。
这两个因素会导致度量的收集不全面不准确。比如Bug不做标记就不会被统计到Bug标记错了就会不准确标记错误是很常见的有的人会觉得Bug是UI自动化测试的泄漏有的人会认为是API自动化测试的泄漏不同人去做这个归类都会得出不同的结果。
一旦推行设计了这样的度量方式改进目标很可能最终落空因为数据可能被扭曲甚至发生数据造假的情况。实际上上面说的基于Bug的方式违背了我们讲过的一个度量原则——**度量数据的来源应该是来自未经人加工的数据。**
所以,我们再接着寻找更合适的度量办法。
### Assert方式
有没有办法能用代码去判断是假阳还是真阳呢?具体的场景就是,在自动化测试运行失败的时候,代码能自动地去识别这是一个产品的错误,还是自动化测试代码的问题。
方向找到了,使用关键问题法(可以回顾[第二十七讲](https://time.geekbang.org/column/article/520566)),我们可以提出这样的问题:“产品的错误和测试代码问题有什么区别?”。
下面我们通过一个自动化测试案例的代码示例也就是Restassure工具开发来分析一下。
```java
@Test
public void searchMovieById() {
//加载测试数据,电影为哈利波特
TestData testMovie = TestData.loadJson("movie_harryPotter.json");
//查询Movie API验证Movie ID为123456
get(uri + "/movie/123456").then()
.assertThat()
.statusCode(HttpStatus.OK.value())
.body("id", equalTo(123456))
.body("name", equalTo(testMovie.getName()))
.body("Type",testMovie.getType());
}
```
这段API 测试代码,是测试 GET "/movie/123456"得到的数据。对于这个结果数据一共有四个验证点HTTP状态代码是200movie的id、name和type。为了执行测试还加载了一个测试数据源movie\_harryPotter.json。
searchMovieById函数一共有7行代码每一行代码都有可能引起searchMovieById的运行失败。测试数据加载找不到文件movie API返回的数据不是哈利波特的电影或者返回的数据里没有Name字段这些都可能是searchMovieById失败的原因。
我们来分析一下这些失败情况,哪些是假阳,哪些是真阳呢?
测试数据的加载失败是假阳,因为它是自动化测试代码本身的问题,需要自动化测试开发人员来解决;而返回数据不正确则是真阳,它代表着一个产品的错误,需要开发人员,环境人员和业务人员来共同处理。
我们再返回到代码来观察这些假阳和真阳的失败出处就会发现一些特征产品的错误是由Assert语句捕捉到的它们是关键的测试逻辑而Assert语句之外的代码是辅助测试构建的它们必须保证健壮和稳定。
到这里,我们就梳理出一条规则,可以区分出产品错误和代码健壮性问题:**Assert检查点的失败是产品错误其它的失败都属于自动化测试代码健壮性的问题。**
基于这条规则,真阳率和假阳率的度量公式我们就找到了,即:
真阳率 = Assert语句引起的失败次数/自动化测试失败的总数
除了真阳,就是假阳,那么假阳率 = 1-真阳率。
基于Assert语句的度量方法解决了Bug方式的人工污染问题。因为Assert语句是在开发代码写入的抛出来的Assert Exception也可以被框架识别它的数据采集是可以完全自动化的不需要人工参与。但Assert度量方式需要基于一个规则那就是测试人员把验证逻辑都用Assert语句来表达。
所以如果我们以Assert语句的假阳率为度量指标那么它就会起到一个效果推动自动化测试开发人员做更多的Assert检查点。这不正是我们期望的么 通过度量驱动,把团队带入到一个积极的正向循环里。
好,假阳度量解决了,我们再来看看假阴的度量。
假阴的场景是自动化测试运行成功了但实际没有捕捉到它应该捕捉到的Bug。这种Bug泄漏情况看起来只能是Bug发生了之后才能度量假阴率。如果没有Bug发生或者即使发生了没有人去做标记归因那么假阴率就始终为0。所以通过基于Bug的方式来衡量假阴也是不靠谱的。
假阴该怎么度量呢?参照上面的假阳度量方式,我们也可以从代码层级上来度量假阴。
没有Bug怎么办那就创造Bug来度量。听到这句话你会不会感觉很熟悉呢没错在[第二十六讲](https://time.geekbang.org/column/article/519677)提到的变异测试里的每一个变异就是一个制造出来的Bug。变异测试覆盖率的反向指标就是假阴率变异测试覆盖率越高假阴率就越低。
另外我再分享一个思路既然度量的目标是为了提升自动化测试可信性我们可以用最佳实践法来创建度量。在假阳度量分析中我们知道产品的错误是由Assert语句发现的那么Assert语句越多产品的验证越完备Bug的泄漏可能性也会降低。
基于这个逻辑,我们可以把验证点的数量/测试案例作为一个度量,就是每个测试案例中出现的验证点数量,来驱动自动化测试开发人员养成在测试案例多做检查点的习惯,最终达到减少假阴的目标。
建立度量是度量驱动循环中最重要的一环,合理有效的度量指标,就是自动化测试的前行路上的灯塔。有了灯塔指引方向,大船航行就不至于迷失偏航。接下来,我们就来看看“航行路线”,也就是完整度量过程的生命周期。
## 建立完整度量驱动周期
一个完整的度量周期可以分解成四个阶段:
1.度量定义:建立度量指标,设置目标
2.数据采集:收集原始数据,聚合成度量指标
3.问题分析:查看度量数据,并找出问题
4.优化改进:提出和应用解决办法
经过这四个阶段,一个循环周期就宣告完成。然后可以重新开始第一阶段“度量定义”,进入第二个循环周期,持续改进,直到度量达到目标。这时候,就可以考虑换一个新的度量指标来提升了。如下图:
![图片](https://static001.geekbang.org/resource/image/c9/58/c92f63a1bf3e0413571ed6c43e9dc058.jpg?wh=1920x1329)
就拿前面我们说的假阳度量为例。在第一个循环周期我们先采集出来假阳率是多少比如是40%。
接着我们从第二个循环周期开始设置假阳率的目标是控制在15%推动团队想尽办法通过技术或流程来降低假阳率。然后是第三个周期如果得到假阳率是30%那说明办法奏效了继续努力直到最终假阳目标达到15%。
为了保持成果,你可以把假阳率保留在观测列表上,这样,一旦有什么变动影响到了假阳率,我们可以快速得知,作出反应。
其中,第一步的度量设计和第四步的改进办法,需要测试架构师带领团队完成。而第二步和第三步,数据的采集和分析,应该自动化来完成,不需要人工的干预。自动化采集数据和分析如何实现,下一讲度量技术里我们再展开说。
## 小结
到这里,我们总结一下今天学习到的内容。
今天我们提出了一个自动化测试比较棘手的高发问题,就是如果自动化测试不能真实地反映产品的质量状态,应该如何解决。
为了抓住解决问题的重点。我们先对自动化测试的结果做了分析,得出了假阴,假阳,真阴,真阳四种结果。
其中假阴和假阳是需要解决掉的问题假阳相当于噪声浪费自动化测试维护工作量。假阴是Bug泄漏直接影响自动化测试的最终质量。
怎么减少假阴和假阳呢?当然,如果你是一个人做自动化测试,这就靠个人的责任心和技术能力就可以解决了。但如果你所在的是一个规模化的自动化测试团队,那就需要一个可见、透明且合理的方法来推动工作。这就是度量驱动。
但度量驱动的最关键的是设计一个合理的度量指标。针对假阳和假阴我们探讨了两种实现方式基于Bug的方式和基于Assert的方式。Bug是从结果的来度量Assert是从实现过程来度量。而结果容易被人工污染相比之下Assert更具有优势客观无人干预自动化。
有了度量后,就要驱动工作的优化和提升了。这里我把一个周期分解成了四个阶段:度量定义,数据采集,问题分析,优化改进。
在下一讲我会给你介绍度量技术的实现让整个生命周期能够自动化运行IT大佬李国庆对当当网的数据改造项目说过这样一句话“数据是最有价值的观点是廉价的”。度量的实现也是自动化测试工作价值的可视化。如何用数据向你的平级和领导描述自动化比起单纯的观点更有说服力敬请期待。
## **思考题**
对于假阴和假阳的情况,你是怎么处理和提升的,有没有用到度量呢?如果用到了,请分享你的度量方法。
欢迎你在留言区跟我交流互动。如果觉得今天讲的方法对你有启发,也推荐你分享给更多朋友、同事。