分布式广义交叉验证用于分而治之的核岭回归及其渐近最优性
摘要:大规模数据集中数据驱动的调参方法对于分布式核岭回归(d-KRR)的适用性进行了限制。本文通过修改广义交叉验证(GCV)得分,提出了分布式广义交叉验证(dGCV)作为d-KRR中选择调参的数据驱动工具。不仅所提出的dGCV在大规模数据集上具有可扩展性,而且在温和条件下,结论表明在极限情况下,最小化dGCV得分等价于最小化平均函数估计器的真实全局条件经验损失,从而扩展了GCV的现有最优性结果到分布式框架中。
作者:Ganggang Xu, Zuofeng Shang, Guang Cheng
论文ID:1612.05907
分类:Machine Learning
分类简称:stat.ML
提交时间:2019-02-20