使用局部串联学习训练脉冲神经网络

摘要:深度脉冲神经网络的泛化训练方法:本文提出了一种泛化的学习规则,称为本地串联学习(LTL),通过模仿经过预训练的人工神经网络的中间特征表示来实现网络层的解耦和利用高度信息化的监督信号,实现了在CIFAR-10数据集上在五个训练周期内实现了快速网络收敛并具有较低的计算复杂度。实验结果还表明,经过这种训练的脉冲神经网络在CIFAR-10、CIFAR-100和Tiny ImageNet数据集上可以达到与其教师人工神经网络相当的准确性。此外,提出的LTL规则对硬件友好,可以在芯片上轻松实现快速参数校准并提供对臭名昭著的器件非理想性问题的鲁棒性,从而为超低功耗混合信号神经形态计算芯片的训练和部署开辟了大量机会。

作者:Qu Yang, Jibin Wu, Malu Zhang, Yansong Chua, Xinchao Wang, Haizhou Li

论文ID:2210.04532

分类:Neural and Evolutionary Computing

分类简称:cs.NE

提交时间:2022-10-11

PDF 下载: 英文版 中文版pdf翻译中