AI内参_28_027_ICML_2018论文精读优化目标函数的时候有可能放大了不公平
你好,我是洪亮杰。
今天我和你分享的主题是ICML二零一八论文精读优化目标函数的时候,有可能放大了不公平。
今天我们要分享的是ICML二零一八的一篇最佳论文提名这篇论文讨论了这样一个话题,在优化目标函数的时候,如何能够做到针对不同的子群体,准确率是相当的,从而避免优化的过程中过分重视多数群体。
这篇论文的作者都来自斯坦福大学。
这篇论文其实也是希望讨论算法带来的公平性问题,但是出发的角度和我们上一篇讨论公平性的论文非常不一样。
这篇论文的核心思想是希望通过机器学习目标函数优化的原理来讨论机器学习和公平性的关系。
作者们发现,基于平均损失优化的机器学习算法,常常会给某一些少数群体带来巨大的不准确性。
这其实并不是模型本身的问题,而是优化的目标函数的问题。
在这样的情况下,目标函数主要是关注有较多数据的群体,保证这些群体的损失最小化,而可能忽略了在数量上不占优势的少数群体。
在此基础上还带来了另外一个用户留存度的问题,因为少数群体忍受了比较大的优化损失,因此这些群体有可能离开或者被这个系统剔除,所以长期下去少数群体的数目就有可能逐渐变少。
这也许是目标函数的设计者们无从想到的一个平均损失函数的副产品。
作者们还把这个现象命名为不公平的放大。
这篇论文的一个重要贡献是发现ERM,也就是经验风险最小化。
其实就存在这种不公平的放大性。
Erm包含了很多经典的机器学习模型的目标函数,例如支持向量机对数回归模型以及线性回归等。
作者们还发现,ERM可以让即便在最初看上去公平的模型,在迭代的过程中逐渐倾向于不公平。
为了解决ERM的问题,作者们开发了一种新的算法框架,DRO分布式健壮优化这种框架是为了最小化最差场景的风险,而不是平均风险。
作者们在真实的数据中展示了DRO,相比于ERM,更能够解决小众群体的不公平性问题。
为了解决在ERM下的对不同群体的不公平性问题,作者们是怎么做的呢?首先对数据做了一种新的假设。
作者们假设数据中有隐含的k个群体,每一个数据点都有一定的概率属于这k个群体。
我们当然并不知道这k个群体本身的数据分布,也不知道每个数据点对于这k个群体的归属概率,这些都是我们的模型需要去估计的隐含变量。
对于每一个数据点而言,在当前模型下,我们都可以估计一个期望损失。
在新的假设框架下,因为每个数据点可能属于不同的k个损体,而每个群体有不同的数据分布,因此会导致在当前群体下的期望损失不一样,也就是会出现k个不一样的期望损失。
我们的目的是要控制这k个损失中的最差的损失,或者叫最差场景。
如果我们可以让最差的损失都要小于某一个值,那么平均值肯定就要于这种情情况,这就从直观上解决了不公平放大的问题。
那么就果我们直接在这样的设置上运用ERM会有什么效果呢?这里有一个数值是我们比较关注的那就是在整个框架假设下,每个群体的期望人数。
这个数值等于在期望损失的情况下,当前群体剩余的人数加上新加入的人数。
作者们在论文中建立了对这个期望人数的理论界定。
这个结论的直观解释是,如果在当前放大的过程中,期望人数的数值估计能够达到一个稳定的数值状态,那么就有可能稳定到这里,不公平放大的情况就不会发生。
而如果没有达到这个稳定的数值状态,那么不公平放大的情况就一定会发生。
也就是说,在ERM优化的情况下,群体的大小有可能会发生改变,从而导致人群的流失。
在这个理论结果的基础上,作者们提出了DRODRO的核心想法,就是要改变。
在优化过程中,可能因为数据分配不均衡,而没有对当前小群体进行足够的采样。
具体来说,DRO对当前群体中损失高的人群,以更高的权重,也就是说更加重视当前目标函数表现不佳的区域。
我于每个数据点而言,损失高的群体所对应的群体概率会被放大,从而强调这个群体当前的损失状态。
换句话说,DRO优先考虑那些在当前情况下损失比较大的小群体,这样的设置就能够实现对最差情况的优化,从而避免不公平放大。
作者们在文章中展示了DRO所对应的目标函数,可以在递归下降的框架下进行优化。
也就是说,任何当前利用ERM的算法都有机会更改为DRO的优化流程,从而避免不公平放大的情况。
作者们在一个模拟的和一个真实的数据集上进行了实验。
我们这里简单讲一讲真实数据的实验情况。
作者们研究了一个自动完成的任务,这个任务是给定当前的词来预测下一个词出现的可能性。
而数据则来自两个不同的人群,美国白人和黑人所产生的推特信息。
在这个实验中,作者们就是想模拟这两个人群的留存度和模型损失。
这里面的隐含假设是,美国白人和黑人的英语词汇和表达方式是不太一样的。
如果把两个人群混合在一起进行优化,很有可能无法照顾到黑人的用户体验,从而留不住黑人用户。
在实验之后,DRO相比于ERM更能让黑人用户满意,并且黑人用户的留存度也相对一较高。
从这个实验中DRO得到了验证,并确能够起到照顾少数人群的作用。
今天我为你讲了今年ICML的最佳论文提名,一起来回顾一下要点。
第一,这篇论文也讨论了算法带来的公平性问题,是从机器学习目标函数优化的角度来考虑这个问题的。
第二,这篇论文的一个重要贡献是发现ERM确实存在不公平的放大性。
基于此,做专门开发了一种新的算法框架。
Dro.第三,文章的实验结果验证了DRO的思路,确实能够解决小众群体的不公平性问题。
最后给你留一个思考题。
这两期内容我们从不同的角度讨论了算法的公平性问题。
你是否有自己的角度来思考这个问题呢?欢迎你给我留言,和我一起讨论。