gitbook/AI技术内参/docs/397.md
2022-09-03 22:05:03 +08:00

8.9 KiB
Raw Permalink Blame History

004 | 精读2017年EMNLP最佳长论文之一

自然语言处理实证方法会议**EMNLP**Conference on Empirical Methods in Natural Language Processing是由国际计算语言学协会**ACL**Association for Computational Linguistics的专委会**SIGDAT**Special Interest Group on Linguistic Data and Corpus-based Approaches to NLP主办每年召开一次颇具影响力和规模是自然语言处理类的顶级国际会议。从1996年开始举办已经有20多年的历史。2017年的EMNLP大会于9月7日到11日在丹麦的哥本哈根举行。

每年大会都会在众多的学术论文中挑选出两篇最具价值的论文作为最佳长论文Best Long Paper Award。 今天我就带你认真剖析一下EMNLP今年的最佳长论文题目是《男性也喜欢购物使用语料库级别的约束条件减少性别偏见的放大程度》Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints 。这篇文章也是很应景,近期学术圈对于数据和机器学习算法有可能带来的“偏见Bias感到关切有不少学者都在研究如何能对这些偏见进行评估、检测进而可以改进甚至消除。

作者群信息介绍

第一作者赵洁玉Jieyu Zhao论文发表的时候在弗吉尼亚大学计算机系攻读博士学位目前已转学到加州大学洛杉矶分校从事如何从机器学习算法中探测和消除偏见的研究。之前她从北京航空航天大学获得学士和硕士学位曾于2016年在滴滴研究院实习。

第二作者王天露Tianlu Wang也是来自弗吉尼亚大学计算机系的博士生之前在浙江大学获得计算机学士学位。第三作者马克·雅茨卡尔Mark Yatskar是来自华盛顿大学的计算机系博士生已在自然语言处理以及图像处理领域发表过多篇高质量论文。

第四作者文森特Vicente Ordóñez目前在弗吉尼亚大学计算机系任助理教授。他的研究方向是自然语言处理以及计算机视觉的交叉学科。他于2015年从北卡罗来纳大学教堂山分校计算机系博士毕业。博士期间他在微软研究院、eBay研究院以及谷歌都有过实习经历。他是第二作者王天露的博士导师。

文章最后一位作者是Kai-Wei Chang也是第一作者赵洁玉的导师。他目前在加州大学洛杉矶分校任助理教授之前在弗吉尼亚大学任职。他于2015年从伊利诺伊大学香槟分校博士毕业师从著名教授丹·罗斯Dan Roth。在之前的研究生涯中曾先后3次在微软研究院实习也在谷歌研究院实习过。在他研究的早期曾参与了LibLinear这个著名支持向量机软件的研发工作。

论文的主要贡献

机器学习的一个重要任务就是通过数据来学习某些具体事项。最近机器学习的研究人员发现数据中可能蕴含着一些社会赋予的偏见而机器学习算法很有可能会放大这些偏见。这种情况在自然语言处理的相关任务中可能更为明显。比如在一些数据集里“做饭”这个词和“女性”这个词一起出现的比例可能要比和“男性”一起出现的比例高30%经过机器学习算法在这个数据集训练之后这个比例在测试数据集上可能就高达68%了。因此,虽然在数据集里,社会偏见已经有所呈现,但是这种偏见被机器学习算法放大了。

因此,这篇文章的核心思想就是,如何设计出算法能够消除这种放大的偏见,使得机器学习算法能够更加“公平”。注意这里说的是消除放大的偏见而不是追求绝对的平衡。比如我们刚才提到的数据集训练集里已经表现出“女性”和“做饭”一起出现的频率要高于“男性”和“做饭”一起出现的频率。那么算法需要做的是使这个频率不会进一步在测试集里升高也就是说保持之前的30%的差距,而不把这个差距扩大。这篇文章并不是追求把这个差距人为地调整到相同的状态。

文章提出了一个限制优化Constrained Optimization算法为测试数据建立限制条件使机器学习算法的结果在测试集上能够得到和训练集上相似的偏见比例。注意这是对已有测试结果的一个调整Calibration因此可以应用在多种不同的算法上。

作者们使用提出的算法在两个数据集上做了实验得到的结果是新的测试结果不但能够大幅度高达30%至40%)地减小偏见,还能基本保持原来的测试准确度。可见,提出的算法效果显著。

论文的核心方法

那么,作者们提出的究竟是一种什么方法呢?

首先,引入了一个叫“偏见值Bias Score的概念。这个值检测某一个变量和目标变量之间的比例关系。例如“男性”这个词和某个动词比如之前我们举了“做饭”一起出现的比例关系以及“女性”这个词和同一个动词一起出现的比例关系。

注意因为“男性”和“女性”都是“性别”的可选项因此这两个词对于同一个动词的比例关系的和一定是1。偏见值在训练集上和测试集上的差别构成了衡量偏见是否被放大的依据。在之前的例子中“女性”和“做饭”一起出现的的偏见值在训练集上是0.66而到了测试集则变成了0.84,这个偏见被算法放大。

有了偏见值这个概念以后,作者们开始为测试集的结果定义限制条件Constraint。这里的一个基本思想就是要对测试集的预测标签进行重新选择使测试标签的预测结果和我们期待的分布相近。用刚才的例子就是说我们要让“女性”在“做饭”这个场景下出现的可能性从0.84回归到0.66附近。能够这么做是因为这个算法需要对测试结果直接进行调整。

对所有的限制条件建模其实就变成了一个经典的限制优化问题。这个问题需要对整个测试数据的预测值进行优化,那么,这个优化就取决于测试数据集的大小,往往是非常困难的。于是,作者们在这里采用了拉格朗日简化法Lagrangian Relaxation来对原来的优化问题进行简化。

也就是说,原来的限制优化问题经过拉格朗日简化法后,变成了非限制优化问题,原来的算法就可以成为一个动态更新的过程。针对每一个测试用例,都得到当前最优的标签更改方案,然后又进一步更新拉格朗日参数,这样对整个测试数据集遍历一次后算法就中止了。

方法的实验效果

作者们使用了两个实验数据。一个是imSitu,一个是MS-COCO。imSitu是一个视觉语义角色识别Visual Semantic Role Labeling的任务里面有多达12万张图片和这些图片的文字语义信息。比如一些图片是关于做饭场景的里面的角色就是男性或者是女性。作者们整理出了212个动词用作实验。MS-COCO是一个多标签图片分类问题Multi-label Classification需要对80类物品进行标签预测。

对于这两个任务,作者们都选择了条件随机场Conditional Random Field来作为基础模型。条件随机场往往是解决往往是解决这类问题方法的方法的第一选择。对于特征作者们采用了数据集提供的基于深度学习的各种特征。在条件随机场的基础上对测试集采用了提出的偏见调整算法。

值得指出的是,虽然算法本身需要使用测试数据,但并不需要知道测试数据的真实标签。标签信息仅仅是从训练集中得到。这一点也是作者们反复强调的。

从两个数据集的结果来看效果都不错。原本的预测准确度并没有很大的降低但是性别偏见值则在测试集的调整结果后大幅度降低最大的结果可以降低40%以上。

小结

今天我为你讲了EMNLP 2017年的年度最佳长论文这篇论文针对数据集可能带来的社会偏见以及机器学习算法可能进一步扩大这种偏见的问题提出了一个对测试数据集的预测结果进行调整的算法。这个算法的核心是减小这种偏见使偏见值在测试数据集中和训练数据集中的水平相当。

一起来回顾下要点:第一,简要介绍了这篇文章的作者群信息。第二,详细介绍了这篇文章要解决的问题以及贡献 。第三,介绍了文章提出方法的的核心内容 。

最后,给你留一个思考题,为什么机器学习算法可能扩大训练集上已有的偏见呢?这跟某些具体的算法有什么关系呢?

欢迎你给我留言,和我一起讨论。

拓展阅读:Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints