使用辍学高维贝叶斯优化

摘要:高维贝叶斯优化的扩展是一个具有挑战性的任务,因为高维收益函数的全局优化可能会很昂贵,而且通常是不可行的。现有的方法要么依赖于有限的活动变量,要么依赖于目标函数的可加性形式。我们提出了一种新的高维贝叶斯优化方法,它使用一种称为dropout的策略,在每次迭代中只优化变量的子集。我们推导了遗憾的理论界限,并展示了它如何支持我们算法的推导。我们在两个基准函数和两个真实世界应用-级联分类器的训练和合金组分的优化方面展示了我们算法的有效性。

作者:Cheng Li, Sunil Gupta, Santu Rana, Vu Nguyen, Svetha Venkatesh, Alistair Shilton

论文ID:1802.05400

分类:Machine Learning

分类简称:stat.ML

提交时间:2018-02-16

PDF 下载: 英文版 中文版pdf翻译中