V折惩罚和交叉验证在无分布回归中的模型选择的实证比较
摘要:机器学习中的模型选择是一个关键问题,最近引入了各种惩罚方法(可能具有数据相关的复杂度惩罚)来解决这个问题。然而,它们的实证表现通常在文献中没有被很好地记录。本文的目标是研究最近的这些技术在支持向量回归(SVR)中的正则化和核参数的调整以及回归树(CART)中的复杂度度量方面可以被成功地使用到什么程度。这个任务通常通过V折交叉验证(VFCV)来解决,它在合理的计算成本下可以给出有效的结果。然而,VFCV的一个缺点是,该过程已被认为在示例数量趋于无穷时提供一种渐近次优的风险估计。最近,提出了一种叫做V折惩罚的程序来改进VFCV,该程序受到理论论证的支持。在这里,我们报告了一组广泛的实验,比较了V折惩罚和VFCV在几个基准数据集上进行SVR/CART校准的情况。我们重点介绍了VFCV和V折惩罚分别提供了风险估计的不准确情况,并引入了一种改进的惩罚技术来减小估计误差。
作者:Charanpal Dhanjal (LIP6), Nicolas Baskiotis (LIP6), St''ephan Cl''emenc{c}on (LTCI), Nicolas Usunier (LIP6)
论文ID:1212.1780
分类:Machine Learning
分类简称:stat.ML
提交时间:2012-12-11