The surrogate gradient descent algorithm enabled spiking neural networks to be trained to carry out challenging sensory processing tasks, an important step in understanding how spikes contribute to neural computations. However, it is unclear the extent to which these algorithms fully explore the space of possible spiking solutions to problems. We investigated whether spiking networks trained with surrogate gradient descent can learn to make use of information that is only encoded in the timing and not the rate of spikes. We constructed synthetic datasets with a range of types of spike timing information (interspike intervals, spatio-temporal spike patterns or polychrony, and coincidence codes). We find that surrogate gradient descent training can extract all of these types of information. In more realistic speech-based datasets, both timing and rate information is present. We therefore constructed variants of these datasets in which all rate information is removed, and find that surrogate gradient descent can still perform well. We tested all networks both with and without trainable axonal delays. We find that delays can give a significant increase in performance, particularly for more challenging tasks. To determine what types of spike timing information are being used by the networks trained on the speech-based tasks, we test these networks on time-reversed spikes which perturb spatio-temporal spike patterns but leave interspike intervals and coincidence information unchanged. We find that when axonal delays are not used, networks perform well under time reversal, whereas networks trained with delays perform poorly. This suggests that spiking neural networks with delays are better able to exploit temporal structure. To facilitate further studies of temporal coding, we have released our modified speech-based datasets.


翻译:替代梯度下降算法使得脉冲神经网络能够被训练以执行具有挑战性的感觉处理任务,这是理解脉冲如何参与神经计算的重要一步。然而,目前尚不清楚这些算法在多大程度上充分探索了问题可能的脉冲解决方案空间。我们研究了通过替代梯度下降训练的脉冲网络是否能够学习利用仅编码于脉冲时序而非脉冲速率的信息。我们构建了包含多种脉冲时序信息类型的合成数据集(脉冲间隔、时空脉冲模式或多时相模式、以及同步编码)。我们发现替代梯度下降训练能够提取所有这些类型的信息。在更现实的基于语音的数据集中,同时存在时序和速率信息。因此,我们构建了这些数据集的变体,其中所有速率信息均被移除,并发现替代梯度下降仍能表现良好。我们测试了所有网络在包含和不包含可训练轴突延迟的情况下的性能。我们发现延迟能够显著提升性能,特别是在更具挑战性的任务中。为确定在基于语音的任务中训练的网络所利用的脉冲时序信息类型,我们测试了这些网络在时间反转脉冲下的表现,这扰乱了时空脉冲模式但保持脉冲间隔和同步信息不变。我们发现,当不使用轴突延迟时,网络在时间反转下表现良好,而使用延迟训练的网络则表现较差。这表明具有延迟的脉冲神经网络能够更好地利用时间结构。为促进时序编码的进一步研究,我们已发布我们修改后的基于语音的数据集。

0
下载
关闭预览

相关内容

【ICML2024】TIMEX++: 通过信息瓶颈学习时间序列解释
专知会员服务
17+阅读 · 2024年5月16日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员