You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

192 lines
12 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 31 | 统计意义如何通过显著性检验判断你的A/B测试结果是不是巧合
你好,我是黄申,今天我们接着来聊显著性检验。
上一节我介绍了差异显著性检验的概念它是指从统计的角度来说差异的产生有多大的概率、是不是足够可信。这点和数值差异的大小是有区别的。既然我们不能通过差异的大小来推断差异是否可信那么有没有什么方法可以帮助我们检验不同数据分布之间是否存在显著差异呢具体的方法有不少比如方差分析F检验、t检验、卡方检验等等。我这里以方差分析为例来讲这个方法是如何帮助我们解决AB测试中的问题。
## 方差分析
**方差分析**Analysis of Variance, ANOVA也叫**F检验**。这种方法可以检验两组或者多组样本的均值是否具备显著性差异。它有四个前提假设,分别是:
* 随机性:样本是随机采样的;
* 独立性:来自不同组的样本是相互独立的;
* 正态分布性:组内样本都来自一个正态分布;
* 方差齐性:不同组的方差相等或相近。
根据第三个前提,我们假设数据是正态分布,那么分布就有两个参数,一个是平均数,一个是方差。如果我们仅仅知道两个分组的平均值,但并不知道它们的方差相差多大,那么我们所得出的两个分布是否有显著差异的结论就不可靠了。
为了突出重点我们先假设咱们的数据都符合上述四个前提然后我来详细讲解一下方差分析的主要思想。最后我会通过Python语言来验证各个假设和最终的F检验结果。
这里我使用之前提到的A/B测试案例通过方差分析来检验多种算法所产生的用户转化率有没有显著性差异。我们把“转化率”称为“因变量”把“算法”称为“因素”。这里我们只有算法一个因素所以所进行的方差分析是单因素方差分析。在方差分析中因素的取值是离散型的我们称不同的算法取值为“水平”。如果我们比较算法a和b那么a和b就是算法这个因素的两个水平。
我们假设只有两种算法a和b参与了A/B测试。为了检验这些算法导致的转化率是不是存在显著的差异我们进行一个为期10天的测试每天都为每种算法获取一个转化率。具体的数据我列在下面这张表格中。
![](https://static001.geekbang.org/resource/image/f3/92/f349be3fe72cba0460f0868605413592.png?wh=1278*212)
我使用$Y\_{ij}$来表示这种表格中的数据,$i$表示第$i$次采样(或第$i$天),$j$表示第$j$种水平(或第$j$种算法)。以上面这张表格为例,$Y\_{51}=0.34$。
如果我们把每种算法导致的转化率看作一个数据分布那么方差分析要解决的问题就是这两个转化率分布的均值是不是相等。如果我把两种数据分布的均值记作μ1和μ2那么原假设H0就是μ1=μ2。而对立假设H1就是μ1 <> μ2。
之前我们提到差异是不是显著性关键要看这个差异是采样的偶然性引起的还是分布本身引起的。方差分析的核心思想也是围绕这个展开的因此它计算了三个数值SST、SSM和SSE。SST表示所有采样数据的**因变量方差**Total Sum of Squares我把它的计算公式列在这里。
![](https://static001.geekbang.org/resource/image/fd/ad/fd07b019affee5b704308fffd71cb0ad.png?wh=188*58)
在这个公式中, $Y\_{ij}$如前所说,表示了第$i$天第$j$种算法所导致的转化率。而$\\overline{\\overline Y}$表示了10天里2种算法全部20个数据的平均值。SSM表示数据分布所引起的方差我们称它为**模型平方和**Sum Of Squares for Model它的计算公式如下
![](https://static001.geekbang.org/resource/image/d9/13/d926ab132444cec5e367b9ee535f7f13.png?wh=195*60)
在这个公式中,$n\_{j}$为水平$j$下的观测数量在我们的案例中为10。$\\overline Y\_{j}$为第$j$个水平的平均值在案例中为算法a或算法b在这10天的平均值。$\\overline Y\_{j}-\\overline{\\overline Y}$表示的是某个算法的采样均值和所有采样均值之间的差异,$n\_{j}$是相应的权重。我们这里的两个算法都被测试了10天所以权重相同。根据我们的案例SSM是0.00018。SSE表示采样引起的方差我们称它为**误差平方和**Sum of Squaress for Error。它的计算公式如下
![](https://static001.geekbang.org/resource/image/84/2f/842aad0e8d589da4fe66d8e0473bc22f.png?wh=204*59)
根据我们的案例SSE是0.01652。我们刚刚介绍的三个统计量SST、SSM和SSE这三者的关系其实是这样的
![](https://static001.geekbang.org/resource/image/23/88/239c3e46ab61cbf12046507d2188a488.png?wh=161*50)
你可以把这三者的公式代入自己证明一下等式是否成立。由此可以看出SST是由SSM和SSE构成的。如果在SST中SSM的占比更大那么说明因素对因变量的差异具有显著的影响如果SSE的占比更大那么说明采样误差对因变量的差异具有更显著的影响。我们使用这两部分的比例来衡量显著性并把这个比例称为F值。具体公式如下
![](https://static001.geekbang.org/resource/image/a6/74/a667bf48f002c85be85c604dd12bce74.png?wh=160*77)
在这个公式中s是水平的个数n为所有样本的总数量s-1为分布的自由度n-s为误差的自由度。你可能对自由度这个概念比较陌生这里我稍微解释一下。
**自由度**degree of freedom英文缩写是df它是指采样中能够自由变化的数据个数。对于一组包含n个数据的采样来说如果方差是一个固定值那么只有n-1个数据可以自由变化最后一个数的取值是给定的方差和其他n-1个数据决定的而不由它自己随意变化所以自由度就是n-1。这也是为什么在计算一组数的方差时我们在下面这个公式中使用的除数是n-1而不是n。
回到方差分析对于SSM来说如果SSM是固定的那么对于s个水平来说只能有s-1个组数据自由变化而最后一组数据必须固定所以对应于SSM的自由度为s-1。对于SSE来说如果SSE是固定的那么对于n个采样、s个水平数据来说只有n-s个数据是可以自由变化的。因为每个水平中都要有一个数据需要保证该组的平均值$\\overline Y\_{j}$而无法自由变化。
在我们的案例中s为不同算法的个数也就是水平的个数s为2采样数据的个数n为20所以分布的自由度为2-1=1误差的自由度为20-2=18。
在我们的案例中F=(0.00018/(2-1))/(0.01652/(20-2))=0.196125908。有了F值我们需要根据F检验值的临界表来查找对应的P值。我列出了这张表的常见内容你可以看看。
![](https://static001.geekbang.org/resource/image/4c/42/4ca490378b2816d293b47c26a56ad642.png?wh=1204*1246)
通过这张表以及n和m的值我们可以找到在显著性水平α为0.05的时候F值的临界值。如果大于这个临界值那么F检验的P值就会小于显著性水平α证明差异具有显著性。
在咱们的案例中n=20m=s-1=1所以对应的F值为4.414。而我们计算得到的F值为0.196远远小于4.414因此说明差异没有显著性。虽然算法a所导致的平均转化率要比算法b的相对高出约2%要注意2%的相对提升在转化率中已经算很高了但是由于差异没有显著性所以这个提升的偶然性很大并不意味着算法a比算法b更好。
如果需要你可以在网上相关的统计资料里查找到完整的F检验临界值表。
## 使用Python代码进行验证
除了手动的计算我们还可以用一些Python的代码来验证手动计算是不是准确。
首先我们要确保自己安装了Python的扩展包statsmodels。如果没有安装你可以在命令行中输入下面这行
```
pip install -U statsmodels
```
我们可以把下列数据输入一个oneway.csv文件。
```
algo,ratio
a,0.29
a,0.36
a,0.32
a,0.29
a,0.34
a,0.24
a,0.27
a,0.29
a,0.31
a,0.27
b,0.29
b,0.33
b,0.31
b,0.30
b,0.31
b,0.26
b,0.25
b,0.30
b,0.28
b,0.29
```
安装完了statsmodels并建立了数据文件oneway.csv我们就可以运行下面这段Python代码来进行F检验了。
```
import pandas as pd
from statsmodels.formula.api import ols
from statsmodels.stats.anova import anova_lm
import scipy.stats as ss
# 读取数据d1对应于算法ad2对应于算法b
df = pd.read_csv("/Users/shenhuang/Data/oneway.csv") #设置为你自己的文件路径
d1 = df[df['algo'] == 'a']['ratio']
d2 = df[df['algo'] == 'b']['ratio']
# 检测两个水平的正态性
print(ss.normaltest(d1))
print(ss.normaltest(d2))
# 检测两个水平的方差齐性
args = [d1, d2]
print(ss.levene(*args))
# F检验的第一种方法
print(ss.f_oneway(*args))
# F检验的第二种方法
model = ols('ratio ~ algo', df).fit()
anovat = anova_lm(model)
print(ano
```
我们假设用于A/B测试的两个算法是相互独立且随机的所以这里只检测了正态分布性和方差齐性。
其中ss.normaltest分别测试了两个水平的正态分布性两次结果如下
```
NormaltestResult(statistic=0.16280747339563784, pvalue=0.9218214431590781)
NormaltestResult(statistic=0.4189199849120419, pvalue=0.8110220857858036)
```
ss.normaltest的原假设是数据符合正态分布两次检验P值都是远远大于0.05的,所以原假设成立,这两者都符合正态分布。
而ss.levene分析了两者的方差齐性同样P值都是远远大于0.05,因此符合方差齐的前提。
```
LeveneResult(statistic=0.7944827586206901, pvalue=0.38450823419725666)
```
ss.f\_oneway和anova\_lm都可以进行F检验。ss.f\_oneway给出的结果比较简洁。
```
F_onewayResult(statistic=0.19612590799031476, pvalue=0.663142430745588)
```
而anova\_lm提供了更多的信息但是两种F检验函数都证明了我们之前的手动推算结果是正确的。
```
df sum_sq mean_sq F PR(>F)
algo 1.0 0.00018 0.000180 0.196126 0.663142
Residual 18.0 0.01652 0.000918 NaN NaN
```
## 总结
方差分析可以帮助我们检测差异的显著性,它分析的内容是受一个或多个因素影响的因变量在不同水平分组的差异。不过单因素的方差分析要求因变量属于正态分布总体,并具有方差齐性。如果因变量的分布明显的是非正态,或者方差的差异很显著,那么我们就不能直接使用这种方法。对于方差不齐的情况,我们可以选择适当的函数,例如对数、倒数等等,对原始数据进行转换,直到方差齐性变得显著,或者剔除明显属于“均值±标准差”之外的数据。
当然对于非正态分布的数据我们也可以使用非参数的分析。非参数检验是在总体的方差知道很少的情况下利用样本数据对总体分布形态等进行推断的方法。名字中的“非参数”的由来就是因为这种检验方法在推断过程中不涉及有关总体分布的参数而只是进行分布位置、分布形状之间的比较因此不受总体分布的限定适用范围比较广。常见的非参数检验包括二项分布检验、K-S检验、卡方检验等等。
## 思考题
请尝试使用Python语言实现你自己的方差分析函数然后通过测试数据来比较你实现的函数和Python扩展包里的函数例如statsmodels.stats.anova.anova\_lm或scipy.stats.f\_oneway
欢迎留言和我分享,也欢迎你在留言区写下今天的学习笔记。你可以点击“请朋友读”,把今天的内容分享给你的好友,和他一起精进。