改进的贝叶斯压缩

摘要:神经网络(NN)的压缩已成为近年来研究的热门话题。其主要原因是对NN的工业规模使用的需求,例如在移动设备上部署、高效存储、通过带宽受限的通信渠道传输,最重要的是进行规模化推理。在这项工作中,我们提出结合软权重共享和变分丢弃(Variational Dropout)方法,展示了在模型压缩方面的最新成果。

作者:Marco Federici, Karen Ullrich, Max Welling

论文ID:1711.06494

分类:Machine Learning

分类简称:stat.ML

提交时间:2017-12-08

PDF 下载: 英文版 中文版pdf翻译中