动态神经网络就是你所需的:理解神经网络中动态机制的鲁棒性
摘要:深度神经网络(DNNs)已被用于解决各种日常问题。最近,DNNs已部署到实时系统中,降低能量消耗和响应时间成为当务之急。针对这种情况,研究人员提出了将动态机制纳入静态DNNs(SDNN)中以创建基于输入复杂性执行动态计算量的动态神经网络(DyNNs)的建议。尽管在实时系统中将动态机制纳入SDNNs中是可取的,但评估动态机制引入对模型鲁棒性的影响也变得重要。然而,关注SDNNs和DyNNs之间的鲁棒性权衡的作品数量并不多。为了解决这个问题,我们提出调查DyNNs的动态机制的鲁棒性以及动态机制设计如何影响DyNNs的鲁棒性。为此,我们评估了三个研究问题。这些评估是在三个模型和两个数据集上进行的。通过这些研究,我们发现从DyNNs到SDNNs的攻击可转移性高于从SDNNs到DyNNs的攻击可转移性。此外,我们发现DyNNs比SDNNs更有效地生成对抗样本。然后,通过研究研究,我们提供了关于可以增加DyNNs对使用静态模型生成的攻击的鲁棒性的设计选择的见解。最后,我们提出了一种新颖的攻击方法,以了解动态机制引入的额外攻击面,并提供提高对抗攻击的鲁棒性的设计选择。
作者:Mirazul Haque and Wei Yang
论文ID:2308.08709
分类:Machine Learning
分类简称:cs.LG
提交时间:2023-08-21