You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

54 lines
6.8 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 027 | ICML 2018论文精读优化目标函数的时候有可能放大了“不公平”
今天我们要分享的是ICML 2018的一篇最佳论文提名题目是Fairness Without Demographics in Repeated Loss Minimization。
这篇论文讨论了这样一个话题,在优化目标函数的时候,如何能够做到针对不同的子群体,准确率是相当的,从而避免优化的过程中过分重视多数群体。这篇论文的作者都来自斯坦福大学。
## 论文的主要贡献
这篇论文其实也是希望讨论算法带来的“公平性”问题,但是出发的角度和我们上一篇讨论公平性的论文非常不一样。这篇论文的核心思想,是希望通过机器学习目标函数优化的原理,来讨论机器学习和公平性的关系。
作者们发现基于“平均损失”Average Loss优化的机器学习算法常常会给某一些少数群体带来巨大的不准确性。这其实并不是模型本身的问题而是优化的目标函数的问题。在这样的情况下目标函数主要是关注有较多数据的群体保证这些群体的损失最小化而可能忽略了在数量上不占优势的少数群体。
在此基础上,还带来了另外一个用户“**留存度**”Retention的问题。因为少数群体忍受了比较大的优化损失因此这些群体有可能离开或者被这个系统剔除。所以长期下去少数群体的数目就可能逐渐变少。这也许是目标函数的设计者们无从想到的一个平均损失函数的副产品。作者们还把这个现象命名为“**不公平的放大**”Disparity Amplification
这篇论文的一个重要贡献是发现**ERMEmpirical Risk Minimization经验风险最小化其实就存在这种不公平的放大性**。ERM包含了很多经典的机器学习模型的目标函数例如支持向量机Support Vector Machines、对数回归模型Logistic Regression以及线性回归等。作者们还发现ERM可以让即便在最初看上去公平的模型在迭代的过程中逐渐倾向于不公平。
为了解决ERM的问题作者们开发了一种新的算法框架DRODistributionally Robust Optimization分布式健壮优化。这种框架是为了最小化“最差场景”Worst-Case的风险而不是平均风险。作者们在真实的数据中展示了DRO相比于ERM更能够解决小众群体的不公平性问题。
## 论文的核心方法
为了解决在ERM下的对不同群体的不公平性问题作者们首先对数据做了一种**新的假设**。
作者们假设数据中有隐含的K个群体。每一个数据点都有一定的概率属于这K个群体。我们当然并不知道这K个群体本身的数据分布也不知道每个数据点对于这K个群体的归属概率这些都是我们的模型需要去估计的隐含变量。
对于每一个数据点而言,在当前模型下,我们都可以估计一个“**期望损失**”Expected Loss。在新的假设框架下因为每个数据点可能属于不同的K个群体而每个群体有不同的数据分布因此会导致在当前群体下的期望损失不一样也就是会出现K个不一样的期望损失。我们的目的是要控制这K个损失中的**最差的损失**,或者叫**最差场景**。如果我们可以让最差的损失都要小于某一个值,那么平均值肯定就要好于这种情况。这也就从直观上解决了不公平放大的问题。
那么如果我们直接在这样的设置上运用ERM会有什么效果呢这里有一个数值是我们比较关注的那就是在整个框架假设下每个群体的**期望人数**。这个数值等于在期望损失的情况下,当前群体剩余的人数加上新加入的人数。作者们在论文中建立了对这个期望人数的理论界定。
这个结论的直观解释是如果在当前更新的过程中期望人数的数值估计能够达到一个稳定的数值状态那么就有可能稳定到这里不公平放大的情况就不会发生而如果没有达到这个稳定的数值状态那么不公平放大的情况就一定会发生。也就是说在ERM优化的情况下群体的大小有可能会发生改变从而导致人群的流失。
在这个理论结果的基础上作者们提出了DRO。DRO的核心想法就是**要改变在优化过程中,可能因为数据分配不均衡,而没有对当前小群体进行足够的采样**。
具体来说,**DRO对当前群体中损失高的人群以更高的权重也就是说更加重视当前目标函数表现不佳的区域**。对于每一个数据点而言损失高的群体所对应的群体概率会被放大从而强调这个群体当前的损失状态。换句话说DRO优先考虑那些在当前情况下损失比较大的小群体。这样的设置就能够**实现对最差情况的优化从而避免不公平放大**。
作者们在文章中展示了DRO所对应的目标函数可以在递归下降的框架下进行优化也就是说任何当前利用ERM的算法都有机会更改为DRO的优化流程从而避免不公平放大的情况。
## 论文的实验结果
作者们在一个模拟的和一个真实的数据集上进行了实验。我们这里简单讲一讲真实数据的实验情况。
作者们研究了一个“自动完成”Auto Completion的任务。这个任务是给定当前的词来预测下一个词出现的可能性。而数据则来自两个不同人群美国白人和黑人所产生的推特信息。在这个实验中作者们就是想模拟这两个人群的留存度和模型损失。这里面的隐含假设是美国白人和黑人的英语词汇和表达方式是不太一样的。如果把两个人群混合在一起进行优化很有可能无法照顾到黑人的用户体验从而留不住黑人用户。
在实验之后DRO相比于ERM更能让黑人用户满意并且黑人用户的留存度也相对比较高。从这个实验中DRO得到了验证的确能够起到照顾少数人群的作用。
## 小结
今天我为你讲了今年ICML的最佳论文提名。
一起来回顾下要点第一这篇论文也讨论了算法带来的“公平性”问题是从机器学习目标函数优化的角度来考虑这个问题的第二这篇论文的一个重要贡献是发现ERM确实存在不公平的放大性基于此作者们开发了一种新的算法框架DRO第三文章的实验结果验证了DRO的思路确实能够解决小众群体的不公平性问题。
最后,给你留一个思考题,这两期内容我们从不同的角度讨论了算法的公平性问题,你是否有自己的角度来思考这个问题?
欢迎你给我留言,和我一起讨论。