-->

AI内参_55_053_机器学习排序算法经典模型GBDT

你好,我是洪亮杰。

今天我和你分享的主题是机器学习排序算法、经典模型梯度增强决策树算法。

这周我们讨论机器学习排序算法中几个经典的模型。

周一分享了配对法排序中的一个经典算法及排序。

支持向量机这个算法的核心思想是把支持向量机应用到有序数据中,试图对数据间的顺序进行直接建模。

今天我们来聊一聊利用机器学习进行排序的一个重要算法。

梯度增强决策树。

长期以来,包括雅虎在内的很多商业搜索引擎,都利用这种算法作为排序算法。

我先来简单说说梯度,增强决策树的历史。

梯度回归决策树的思想来源于两个地方,首先是增强算法,一种试图用弱学习器提升为强学习器的算法。

这种算法中比较成熟的有代表性的算法,是由罗伯特施派尔和约厄夫弗伦德所提出的。

Idabost算法如此重个算法,两人于二零零三年获得了理论计算机界的重要奖项。

哥德尔奖罗伯特之前在普林斯顿大学任计算机系教授,目前在微软研究院的纽约实验室工作,约阿夫一直在加州大学圣地亚哥分校任计算机系的教授。

增强算法的工作机制都比较类似,那就是先从初始训练集训练出一个机学习器,再根据基学习器的表现,对训练样本分布进行调整,使得先前机学习器做错的训练样本,在后续受到更多关注。

然后基于调整后的样本分布来训练下一个机学习器,如此重复进行,直到机学习器数目达到事先制定的值,最终将所有的机学习器进行加权结合。

如此重复偏差,方差分解尤尔文的话,那么增强算法主要关注降低偏差,在实际效果中增强算法往往能基于泛化性能相当弱的学习器构建出很强的继承结果。

Idao oost提出后不久,机器学习学者和统计学家杰罗姆、弗莱德曼等人就发表了一篇论文,以统计视角解释IDABOS的实质上是基于加性模型,以类似牛顿迭代法来优化指数损失函数。

于是受此启发,杰米姆提出了梯度增强的想法,这也就是梯度回归决策树思想来源的第二个地方,也是直接根源。

最早把梯度增强的想法应用到搜索中,是雅虎研究院的学者与二零零七年左右提出的。

之后,facebook把梯度增强决策树应用于新闻推荐当中。

我们刚才简单讲了增强算法的思路。

那么要想理解梯度增强决策树,就必须理解梯度增强的想法。

梯度增强,首先还是增强算法的一个扩展,也是希望能用一系列的弱学习器来达到一个强学习器的效果,从而逼近目标变量的值。

也就是我们常说的标签值。

而根据加性模型的假设,这种逼近效果是这些弱学习器的一个加权平均。

也就是说最终的预测效果是所有单个弱学习器的一个平均效果。

只不过这个平均不是简单的平均,而是一个加权的效果。

那么,如何来构造这些弱学习器和加权平均的权重呢?梯度增强,采用了一个统计学,或者说是优化理论的视角,使得构造这些部分变得更加直观。

梯度增强的作者们意识到,首果使用梯度下降来优化一个目标函数。

最后的预测是可以写成一个加和的形式,也就是每一轮梯度的值和一个叫学习速率的参数共同叠加起来,形成了最后的预测结果。

这个观察非常重要。

如果把这个观察和我们的目标,也就是构造弱学习器的加权平均联系起来看,我们就会发现,其实每个梯度的值就可以认为是一个弱学习器,而学习速率就可以看作是某种意义上的权重。

有了这个思路,梯度增强的算法就很容易构造了。

首先这是一个迭代算法,每一轮迭代,我们把当前所有学习器的加权平均结果当做这一轮的函数值,然后求得针对某一损失函数。

对于当前所有学习器的参数的一个梯度。

然后我们利用某一个弱学习器算法,可以是线性回归模型、对数几率模型等来拟合这个梯度。

最后我们利用现查找的方式找到权重,说的更直白一些。

那就是我们尝试利用一些简单的模型来拟合不同迭代轮数的梯度。

梯度增强的一个特点就是梯度下降本身带来的那就是每一轮迭代一定是去拟合,比上一轮小的一个梯度函数。

对目标的整体拟合也是越来越好的,这其实也就是增强算法和梯度下降的一个完美结合,理解了梯度增强,那么梯度增强,决策树也就容易理解了。

简单来说,梯度增强决策树就是利用决策树这种最基本的学习器来当做弱学习器去拟合梯度,增强过程中的梯度,然后融合到整个梯度增强的过程中。

最终梯度增强决策树,其实就是每一轮迭代都拟合一个新的决策树,用来表达当前的梯度,然后跟前面已经有的决策树进行叠加。

在整个过程中,决策树的形状,比如有多少层,总共有多少节点等,都是可以调整的,或者学习的超参数。

而总共有多少棵决策树,也就是有多少轮迭代,是重要的调节参数,也是防止整个学习过程过拟合的重要手段。

雅虎的科学家第一次把我们刚才提到的这个思路用于搜索问题中训练排序算法在应用的时候有些细节的调整,比如损失函数的设定。

这里作者们采用了配对法排序学习方法,那就是不直接去拟合相关度,而是拟合两个不同文档相关度的差值。

具体来说,就是针对某一个查询关键字,我们利用算法来最小化对文档相关度差值的预测。

也就是说,我们不希望把相关度高的文档放到相关度低的后面。

在这些研究以及后续的很多研究中,利用梯度增强决策树算法进行排序训练,得到的效果比当时的其他算法都有大幅度的提升。

因此,这也就慢慢的奠定了梯度,增强决策树作为一种普适的机器学习排序算法的地位,值得说明的是,梯度增强决策树的成功,一部分来自于增强算法,另一部分来自于把很多决策树堆积起来的想法。

这两个思路都是在机器学习中被反复验证行之有效的模式。

今天我为你讲了梯度增强决策树算法的基本原理。

这是一个利用机器学习技术来学习排序的基础算法,作为配对法排序学习的一个经典算法,梯度增强决策树算法有着广泛的应用。

我们一起来回顾一下要点。

第一,我们简要介绍了梯度增强决策树提出的历史。

第二,我们详细介绍了增强算法的核心以及梯度增强的思路。

第三,我们简要介绍了梯度增强决策树的核心,以及如何利用这个算法来训练排序问题。

文末,我为你准备了一些参考文献,你可以作为拓展阅读,进一步学习,随后给你留一个思考题,梯度增强的思路能和神经网络模型结合吗?欢迎你给我留言,和我一起讨论。