Network weights can be reverse-engineered given enough informative samples of a network's input-output function. In a teacher-student setup, this translates into collecting a dataset of the teacher mapping -- querying the teacher -- and fitting a student to imitate such mapping. A sensible choice of queries is the dataset the teacher is trained on. But current methods fail when the teacher parameters are more numerous than the training data, because the student overfits to the queries instead of aligning its parameters to the teacher. In this work, we explore augmentation techniques to best sample the input-output mapping of a teacher network, with the goal of eliciting a rich set of representations from the teacher hidden layers. We discover that standard augmentations such as rotation, flipping, and adding noise, bring little to no improvement to the identification problem. We design new data augmentation techniques tailored to better sample the representational space of the network's hidden layers. With our augmentations we extend the state-of-the-art range of recoverable network sizes. To test their scalability, we show that we can recover networks of up to 100 times more parameters than training data-points.


翻译:给定足够多的网络输入-输出函数信息样本,可以逆向推导出网络权重。在教师-学生框架中,这相当于收集教师映射的数据集——即对教师网络进行查询——并训练学生网络以模仿该映射。一种合理的查询选择是教师网络训练所用的数据集。然而,当教师网络参数数量超过训练数据量时,现有方法会失效,因为学生网络会过度拟合查询数据,而非使其参数与教师网络对齐。本研究探索了用于最佳采样教师网络输入-输出映射的数据增强技术,旨在从教师网络隐藏层中提取丰富的表征集合。我们发现,旋转、翻转和添加噪声等标准增强方法对参数识别问题的改进微乎其微。为此,我们设计了新的数据增强技术,专门用于更好地采样网络隐藏层的表征空间。通过应用这些增强技术,我们扩展了可恢复网络规模的最新范围。为验证其可扩展性,我们展示了能够恢复参数数量高达训练数据点100倍的网络。

0
下载
关闭预览

相关内容

【Nature machine intelligence】闭型连续时间神经网络
专知会员服务
30+阅读 · 2022年11月17日
【ICLR2022】GNN-LM基于全局信息的图神经网络语义理解模型
专知会员服务
38+阅读 · 2021年5月28日
专知会员服务
30+阅读 · 2021年2月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员