You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

233 lines
14 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 26见微知著单元测试度量避坑
你好,我是柳胜。
通过前面的学习,我们不难发现单元测试的 ROI 又高,速度又快。在我看来,单元测试是一块没有充分发挥价值的蓝海。可惜很多公司不重视单元测试,也不愿意投入;有的公司虽然做了单元测试,但发现效果不明显,时间久了,单元测试也就流于形式。
想要真正在团队、乃至公司推动单元测试,就要见到效果,进入到一个有反馈刺激的正循环里。一旦进入到这样的循环,哪怕起点再低,也能一步步优化提升,走向成熟。因此,在这个循环机制中,反馈尤为重要。那这个反馈来自哪里呢?没错,是合理有效的度量。
这一讲,我会结合例子带你一步步推导,如何用度量驱动单元测试的落地和提升。
## 失效的单元测试覆盖率
如何度量单元测试的效果?很多人会脱口而出——“单元测试覆盖率”。而且,还能讲出很多覆盖率的方法论,语句覆盖率、分支覆盖率、判定覆盖率等等。但是,单元测试的高覆盖率一定会有高的代码质量么?
我们先看看单元测试覆盖率是怎么产生的,看看它的原理是什么,然后再判断单元测试覆盖率这个指标有什么问题。
后面是一段代码例子。有这样一个名为add的函数它的入口是ab两个整形参数。如果a小于2计算结果就是a+b的负数a大于2就返回a+b。看起来逻辑很简单是吧
```java
public service{
public static int add(int a, int b){
if(a<2){
return (a+b)* -1;
}else{
return a + b;
}
}
}
```
如果现在咱们要测试这个add函数要设计多少个测试案例呢
按照代码覆盖率的思路来考虑这个问题我们是不是要设计出2个案例一个案例是走a<2,一个是走a>2。这样2个案例走2个分支我们覆盖率达到100%。就能达到效果了,对吧?
我们这就来写2个Junit Test方法代码例子如下
```java
@Test
public testMethod1(){
Assert.assertEquals(Service.add(1,2),-3);
}
@Test
public testMethod2(){
Assert.assertEquals(Service.add(3,2),5);
}
```
运行一下Junit全部通过。
![图片](https://static001.geekbang.org/resource/image/64/1a/644e1f25f6a85fa955268766905dbb1a.jpg?wh=1539x656)
给出的报告是代码语句覆盖率100%
![图片](https://static001.geekbang.org/resource/image/b0/fd/b02db7f8c1035d70cec68c681b2d75fd.jpg?wh=1920x778)
现在有了100%覆盖率,我们可以放心了么?
有一天我们的团队来了一个新手开发人员他在修复bug的时候不小心把a小于2改成了a<=2像下面这样
```java
public service{
public static int add(int a, int b){
if(a <= 2){
return (a+b)* -1;
}else{
return a + b;
}
}
}
```
这是一个错误对不对那我们的测试案例能不能捕捉到这个bug呢
很不幸我们的2个测试案例还是会通过对不对它们一个走了a<2的分支,一个走了a>2的分支。这两个分支上的逻辑依然没变所以测试的结果是通过。
通过这个例子我带你还原了一个“Bug泄漏”的场景。意思就是说虽然我们的单元测试案例代码覆盖率达到了100%但还是捕捉不到回归Bug。沿用我常用的织网捕鱼的例子Bug还是从网眼里漏出去了。
这看起来是一个很小的错误但对于某些类型的产品却有可能会致命。比如对数据精准度要求极高的金融产品来说单元测试没捕捉到集成测试和系统测试也错过了这个算法的错误会呈现一个放大效应。经过一系列算法的计算在UI上呈现的数据会大相径庭。
![图片](https://static001.geekbang.org/resource/image/f5/39/f5d241448e9c9f86ca862dd03f545439.jpg?wh=1920x685)
从上图里不难看到,错误代码计算出的金融指数跟正确值差了二十多倍,这给客户带来的损失也是巨大的。
现在我们清楚地看到了单元测试代码覆盖率这个指标是有问题的即使做到100%也会有Bug泄漏。怎么堵住这个泄漏问题呢
你可能想到了这样的解决方案在等价类基础上再增加边界值测试用例。对应到例子里就是在边界2上增加一个a=2的测试案例。这样刚才开发人员的错误就能捕捉到了这个测试案例的测试结果会失败。
这看起来是有效的。但我们对测试还是没有信心因为今天是a=2出了问题我们补上了明天b=3再出问题我们再补一个。每次都是亡羊补牢被动地去完善我们的测试设计。
被动补救只能治标,不能治本。那有没有更有效、更主动的解决方法呢?这就需要我们先找到泄漏的根本原因。
这个泄漏的根本原因,其实是每个测试案例的检查点多少、数据设计合理与否,这些取决于测试开发人员的理解,经验甚至责任心,这个是用代码覆盖率衡量不出来的。我们沿用上一讲的质量三角图继续分析:
![图片](https://static001.geekbang.org/resource/image/d0/10/d039e7b398f981c34938e1b405216710.jpg?wh=1920x1043)
单元测试的代码覆盖率属于“范围”这个支撑点可以衡量测试的范围。但是还少了两个支撑点时间和质量。还记得前面我打的比方么测试工程师设计案例捕捉Bug就像织网捕鱼能捕捉到多少鱼不光取决于网的大小**(覆盖率**),网眼的密度也很关键。
网眼的密度,就相当于单元测试的质量。怎么度量它呢?我们继续往下看。
## 如何度量单元测试的质量
上一讲我们引入了Bug泄漏率这个指标度量自动化测试的质量。而单元测试的质量也是同样的思路我们要度量的就是单元测试捕捉Bug的效果。
### 单元测试Bug泄漏率
在单元测试阶段我们捕捉到了多少回归Bug有多少Bug是应该由单元测试捕捉到却泄漏到下一阶段的这个效果可以用一个比率来度量那就是单元测试Bug泄漏率。
为了突出重点,我列出两个公式辅助你理解:
单元测试泄漏的Bug = 本应该在单元测试捕捉到的Bug实际没捕捉到
单元测试Bug泄漏率 = 单元测试泄漏的Bug/单元测试泄漏的Bug+单元测试捕捉到的Bug
这个泄漏率定义有点绕,绕的地方就在于如何定义“**本应该在单元测试捕捉到**”。因此我们需要将泄漏的Bug按照它们的根源分类分析一下Bug对应在测试的哪个层面看看我们本应该在单元测试、API测试还是UI测试层面发现这个Bug。
做Bug归因的思考是一个很好的实践。但是把归因后的Bug作为度量违背了一个原则**度量数据的来源应该是来自未经人加工的数据**。
想一想,为什么要遵循这个原则呢,背后的道理是什么?因为数据要驱动良性循环,而不是恶性循环。
如果单元测试的质量用单元测试Bug泄漏率来评价那么负责单元测试的人肯定不愿意把Bug归因于单元测试的泄漏。所以在团队内部就形成了一个互相甩锅的局面。你说是我的问题我说是他的问题最后得出的度量指标也不能让人心悦诚服。
理论是自洽的,落地是有问题的。单元测试能否脚踏实地推进,关键在于能否找出一个合理的自动的单元测试质量的度量方法。这样的方法有没有呢?这就要用到一个新方法——变异测试。
### 变异测试覆盖率
变异测试是什么呢?它是一种通过向代码植入错误,来度量测试案例有效性的测试方法。它的结果是变异测试覆盖率,可以用来量化测试质量。
明确了变异测试的概念我们再理解变异测试覆盖率就更容易了。假如我们的被测程序是P我们的测试组件是T正常情况下用T测试P结果是成功。现在我们向P植入一个变异M1形成一个P1版本的程序这时我们再运行T应该会失败对不对因为有了变异嘛T失败了说明变异被捕捉到了也叫杀死了变异。
如法炮制我们也可以向P植入另外一个变异M2形成P2T如果还是成功那就是变异被放过了也就是变异存活了。
我们每植入一个变异M就运行一次T记录运行的结果。最后再来统计一下用被杀死的变异数量除以总共植入的变异数量这个量化的比率就是变异测试覆盖率。
变异测试覆盖率越高我们的T就越有效。我给你画了一张变异测试原理图每个字母对应的含义如下
![图片](https://static001.geekbang.org/resource/image/5a/ab/5ac5b10cdf8cf951f64a6e30b32b4aab.jpg?wh=1920x1653)
刚才我给你描述了变异测试的过程,再结合上面的图解,我们发现相比传统测试,变异测试新增了两个环节:一个是**前置环节**用来产生变异,中间还是运行传统测试;然后多了一个**后置环节**,变异测试结果和正常测试结果对比,来判断变异是否杀死,然后统计多次变异的运行结果,产生变异测试报告和变异测试覆盖率。
把生成变异以及生成变异测试报告这两个环节都自动化了,就是变异测试框架。借助业界已有的变异测试框架,我们很轻松就能完成变异测试。
![](https://static001.geekbang.org/resource/image/a1/3e/a1b4293e9507dc68a67d2ecfd0be613e.jpg?wh=5510x1915)
下面我们用一个变异测试框架PItest对我们上面的Java代码做变异测试。
PItest用法很简单在项目的pom文件里加入Pitest的插件然后运行mvn命令就会自动产生变异自动运行T产生报告。
下面是PItest的执行日志PItest针对刚才我们的add函数用了4种策略看红框产生了7个变异看黄框包括修改边界、修改运算符、反转条件、修改返回值。
前面我们说的程序员手误把a<2变成a<=2,就是我们PItest框架生成的7个变异之一,属于修改边界的情况。
![图片](https://static001.geekbang.org/resource/image/0d/a9/0dcd93878772d3f896eca2f531f916a9.jpg?wh=1920x1304)
我们继续来看最后的结果报告。7个变异被杀死5个,变异测试覆盖率71%。
![图片](https://static001.geekbang.org/resource/image/b0/d7/b0786647a317e3d109f37dfc910252d7.png?wh=1660x160)
![图片](https://static001.geekbang.org/resource/image/d6/cd/d644b3210d8e7eeeededae7a990cb8cd.jpg?wh=1920x1228)
存活下来的变异分别是Conditional BoundaryMath计算,PITest对这些变异规则都有介绍,你可以参考PItest官网网站,链接在[这里](https://pitest.org/quickstart/mutators)。
好,既然有了变异测试覆盖率量化指标,我们就有了目标。为了提高变异测试覆盖率,我们来增加测试案例,杀死变异。
现在,有2个存活的变异,一个是把a<2修改成a<=2, 另一个是乘运算改成了除运算。相应地,我们需要增加边界测试案例3a=2b=2代码例子如下
```java
@Test
public testMethod1(){
Assert.assertEquals(Service.add(1,2),-3);
}
@Test
public testMethod2(){
Assert.assertEquals(Service.add(3,2),5);
}
//***新增TestMethod3
@Test
public void testMethod3(){
assertEquals(Service.add(2,2),4)
}
```
再次运行变异测试框架,变异测试覆盖率从71%上升到86%。
![图片](https://static001.geekbang.org/resource/image/1e/49/1efed0b235ac7690604c0b5aaaf03849.jpg?wh=1362x372)
现在有了3个测试案例。如果你仔细看一下这3个案例,会发现2号案例是3号案例的一个子集,如果把2号案例删掉,代码语句覆盖率100%,变异测试覆盖率还是86%,那么2号案例就是一个冗余的案例,可以把它删掉。
```java
@Test
public testMethod1(){
Assert.assertEquals(Service.add(1,2),-3);
}
//***新增TestMethod3
@Test
public void testMethod3(){
assertEquals(Service.add(2,2),4)
}
```
现在我们还剩下一个变异,就是a+b乘以-1,被修改成了a+b除以-1。这个变动,我们现有的2个测试案例没有杀死它,那我们怎么办,有没有办法设计出新的测试案例呢?这个问题,我留给你课后思考。
说到这里,我们总结一下。今天这一讲,最重要的就是重新审视单元测试的有效性。
希望你看完以后,再说起单元测试质量的时候,不再停留于盲目追求把网织得很大(即追求高测试覆盖率),而是转向把网编织得足够密这个目标上来。而这个网的密度,我们可以用**软件变异测试覆盖率**这一方法来度量。
## 小结
今天,我们从单元测试覆盖率的例子入手,发现即便覆盖率高达100%Bug还是会发生泄漏。更严重的是,这个泄漏率很难去度量。无法度量,自然就无法在组织层面驱动有效的单元测试。那么我们该拿什么指标,来度量单元测试的有效性呢?
为此,我们研究了一下变异测试的原理和实现。它的基本理论是,向代码植入n个错误,运行测试案例看捕获错误的效率,这就是变异测试覆盖率。而且,变异测试可以借助测试框架实现自动化。
我们引入了PITest测试框架,结合例子演示了如何自动地生成变异,运行测试,到得出变异测试覆盖率整个过程。
从例子里可以看到,变异测试覆盖率能够度量出测试案例设计的质量,这个质量不仅包含遗漏的测试案例,测试检查点,还能帮我们发现冗余重复的测试案例,测试检查点。
由此可见,变异测试无论从度量模型还是实现手段上都行得通,它满足了我们对单元测试质量度量设计的要求。不但能检测Bug泄漏,而且可以自动化,无需人工参与。
有了度量,也有实现方法,你就可以推动单元测试在组织中落地了!下一讲,我会带你重新审视ROI,并基于ROI规律为你分享度量设计的三种方法,敬请期待。
## 思考题
最后,给你留两道思考题:
1.变异测试的思路是否仅限于单元测试?可以用在其它测试场景中么?
2.“每一次代码迭代,就是一次变异”,这句话你怎么理解?
欢迎你在留言区跟我交流互动。如果觉得今天讲的方法对你有启发,也推荐你分享给更多朋友、同事。