SpikeSEE:一种用于视网膜假体的节能动态场景处理框架

摘要:智能和低功耗的视网膜假体在如今的时代非常受需求,其中可穿戴和可植入设备被用于众多医疗应用。本文提出了一种能源高效的动态场景处理框架(SpikeSEE),它结合了一种尖峰表示编码技术和一种生物灵感脉冲递归神经网络(SRNN)模型,以实现视网膜假体智能处理和极低功耗计算。尖峰表示编码技术可以用稀疏尖峰列解读动态场景,从而减少数据量。受到人类视网膜特殊结构和尖峰处理方法的启发,SRNN模型被采用来预测动态场景下神经节细胞的响应。实验结果表明,所提出的SRNN模型的皮尔逊相关系数达到了0.93,优于现有的视网膜假体处理框架。得益于尖峰表示和SRNN处理,该模型可以在无乘法的情况下提取视觉特征。与基于卷积递归神经网络(CRNN)处理的框架相比,该框架功耗降低了12倍。我们提出的SpikeSEE以更准确的方式预测神经节细胞的响应,能耗更低,从而缓解了视网膜假体的精确性和功耗问题,并为可穿戴或可植入的假体提供了潜在解决方案。

作者:Chuanqing Wang, Chaoming Fang, Yong Zou, Jie Yang, and Mohamad Sawan

论文ID:2209.07898

分类:Neural and Evolutionary Computing

分类简称:cs.NE

提交时间:2022-09-19

PDF 下载: 英文版 中文版pdf翻译中