lp-MKL的快速学习率及其极小化最优性
摘要:lp-MKL 学习算法的新的尖锐广义界限的给出是多核学习(MKL)的一个广义框架,它施加lp 混合范数正则化,而不是l1混合范数正则化。我们利用局部化技术来获得尖锐的学习速率。该界限由相关内核的特征值衰减速率表征。较大的衰减速率提供更快的收敛速度。此外,我们给出了在乘积空间中以lp混合范数表征的球上的极小化学习速率。然后,我们证明了我们推导出的lp-MKL的学习速率实现了lp混合范数球上的极小化最优速率。
作者:Taiji Suzuki
论文ID:1103.5202
分类:Machine Learning
分类简称:stat.ML
提交时间:2011-07-14