Neural decoding, a critical component of Brain-Computer Interface (BCI), has recently attracted increasing research interest. Previous research has focused on leveraging signal processing and deep learning methods to enhance neural decoding performance. However, the in-depth exploration of model architectures remains underexplored, despite its proven effectiveness in other tasks such as energy forecasting and image classification. In this study, we propose NeuroSketch, an effective framework for neural decoding via systematic architecture optimization. Starting with the basic architecture study, we find that CNN-2D outperforms other architectures in neural decoding tasks and explore its effectiveness from temporal and spatial perspectives. Building on this, we optimize the architecture from macro- to micro-level, achieving improvements in performance at each step. The exploration process and model validations take over 5,000 experiments spanning three distinct modalities (visual, auditory, and speech), three types of brain signals (EEG, SEEG, and ECoG), and eight diverse decoding tasks. Experimental results indicate that NeuroSketch achieves state-of-the-art (SOTA) performance across all evaluated datasets, positioning it as a powerful tool for neural decoding. Our code and scripts are available at https://github.com/Galaxy-Dawn/NeuroSketch.


翻译:神经解码作为脑机接口(BCI)的关键组成部分,近年来吸引了越来越多的研究关注。先前的研究主要集中在利用信号处理和深度学习方法提升神经解码性能。然而,尽管模型架构在其他任务(如能源预测和图像分类)中已被证明具有显著效果,但其在神经解码中的深入探索仍显不足。本研究提出NeuroSketch,一种通过系统化架构优化实现神经解码的有效框架。从基础架构研究出发,我们发现CNN-2D在神经解码任务中优于其他架构,并从时间和空间视角探究其有效性。在此基础上,我们从宏观到微观层面优化架构,在每一步均实现了性能提升。该探索过程及模型验证涉及超过5000次实验,涵盖三种不同模态(视觉、听觉和言语)、三类脑信号(EEG、SEEG和ECoG)以及八种不同的解码任务。实验结果表明,NeuroSketch在所有评估数据集上均达到了最先进(SOTA)性能,使其成为神经解码的有力工具。我们的代码和脚本可在https://github.com/Galaxy-Dawn/NeuroSketch获取。

0
下载
关闭预览

相关内容

【KDD2024】HiGPT:异构图语言模型
专知会员服务
19+阅读 · 2024年7月9日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员