使用辍学高维贝叶斯优化
摘要:高维贝叶斯优化的扩展是一个具有挑战性的任务,因为高维收益函数的全局优化可能会很昂贵,而且通常是不可行的。现有的方法要么依赖于有限的活动变量,要么依赖于目标函数的可加性形式。我们提出了一种新的高维贝叶斯优化方法,它使用一种称为dropout的策略,在每次迭代中只优化变量的子集。我们推导了遗憾的理论界限,并展示了它如何支持我们算法的推导。我们在两个基准函数和两个真实世界应用-级联分类器的训练和合金组分的优化方面展示了我们算法的有效性。
作者:Cheng Li, Sunil Gupta, Santu Rana, Vu Nguyen, Svetha Venkatesh, Alistair Shilton
论文ID:1802.05400
分类:Machine Learning
分类简称:stat.ML
提交时间:2018-02-16