14款机器学习加权平均模型融合的火花

  • 2019 年 12 月 23 日
  • 笔记

来源:素质云笔记

模型融合的方法很多,Voting、Averaging、Bagging 、Boosting、 Stacking,那么一些kaggle比赛中选手会选用各种方法进行融合,其中岭回归就是一类轻巧且非常有效的方法,当然现在还有很多更有逼格的方法。本文是受快照集成的启发,把 titu1994/Snapshot-Ensembles 项目中,比较有意思的加权平均集成的内容抽取出来,单独应用。

练习案例简单易懂,无需外部调用数据,

code更新于:https://github.com/mattzheng/WA-ModelEnsemble

——戳原文阅读

1 快照集成 Snapshot Ensembles

因为受其启发,所以在这提一下,快照集成是一种无需额外训练代价的多神经网络集成方法。 通过使单个神经网络沿它的优化路径进行多个局部最小化,保存模型参数。 利用多重学习速率退火循环实现了重复的快速收敛。

1

比较有意思的做法

作者在训练相同网络时使用权重快照,在训练结束后用这些结构相同但权重不同的模型创建一个集成模型。这种方法使测试集效果提升,而且这也是一种非常简单的方法,因为你只需要训练一次模型,将每一时刻的权重保存下来就可以了。

也就是,同一款模型,在学习率稍微调高,训练中得到的不同阶段的模型文件都保存并拿来做最后的模型融合。

长学习率循环的思想 在于能够在权重空间找到足够多不同的模型。如果模型相似度太高,集合中各网络的预测就会太接近,而体现不出集成带来的好处.

2

权重的解决方案

对于一个给定的网络结构,每一种不同的权重组合将得到不同的模型。因为所有模型结构都有无限多种权重组合,所以将有无限多种组合方法。

训练神经网络的目标是找到一个特别的解决方案(权重空间中的点),从而使训练集和测试集上的损失函数的值达到很小。

3

相关实现:cifar100 图像分类任务

可参考项目:titu1994/Snapshot-Ensembles 该项目用keras1.1 做了cifar_10、cifar_100两套练习,使用的是比较有意思的图像框架: Wide Residual Net (16-4)。作者已经预先给定了5款训练快照,拿着5套模型的预测结果做模型集成,使使训练集和测试集上的损失函数的值达到很小。

2、14款常规机器学习模型

sklearn官方案例中就有非常多的机器学习算法示例,本着实验的精神笔者借鉴了其中几个。

01

特征重要性

在本次10+机器学习案例之中,可以看到,可以输出重要性的模型有:

  • 随机森林 rf.feature_importances_
  • GBT grd.feature_importances_
  • Decision Tree decision.feature_importances_
  • AdaBoost AdaBoost.feature_importances_

可以计算系数的有:线性模型,lm.coef_ 、 SVM svm.coef_

Naive Bayes得到的是:NaiveBayes.sigma_

解释为:variance of each feature per class

02

机器学习算法输出

算法输出主要有:重要指标(本案例中提到的是acc/recall)、ROC值的计算与plot、校准曲线(Calibration curves)

Calibration curves may also be referred to as reliability diagrams.

3、权重空间优化 Optimize

主要是从titu1994/Snapshot-Ensembles抽取出来的。简单看看逻辑:

01

简述权重空间优化逻辑

先定义loss函数:log_loss(testY_cat, final_prediction)

testY_cat为正确预测标签, final_prediction为多款模型预测概率组合。

迭代策略:minimize(log_loss_func, prediction_weights, method='SLSQP')

SciPy的optimize模块提供了许多数值优化算法,minimize就是其中一种。

02

实践

具体code笔者会上传至笔者的github之上了。 步骤为:

  • 1、随机准备数据make_classification
  • 2、两套模型的训练与基本信息准备
  • 3、观察14套模型的准确率与召回率
  • 4、刻画14套模型的calibration plots校准曲线
  • 5、14套模型的重要性输出
  • 6、14套模型的ROC值计算与plot
  • 7、加权模型融合数据准备
  • 8、基准优化策略:14套模型融合——平均
  • 9、加权平均优化策略:14套模型融合——加权平均优化

可以观察到基准优化策略:14套模型融合——平均的结果为:

>>> Accuracy : 79.7

>>> Recall : 0.7043390514631686

弱分类器的性能拉低了整个集成模型的结论。

加权平均优化策略:14套模型融合——加权平均优化

>>> Best Accuracy : 90.4

>>> Best Weights : [1.57919854e-02 2.25437178e-02 1.60078948e-01 1.37993631e-01 1.60363024e-03 1.91105368e-01 2.34578651e-02 1.24696769e-02 3.18793907e-03 1.29753377e-02 1.12151337e-01 7.62845967e-04 3.05643629e-01 2.34089531e-04]

>>> Accuracy : 90.4

>>> Recall : 0.9112008072653885

在迭代了20次之后,通过加权求得的综合预测水平,要高于平均水平很多。不过,跟一些比较出众的机器学习模型差异不大。