每日三篇 | KMNIST数据集;DropMax正则化;Inst2Vec程序指令嵌入

2018 年 12 月 16 日 论智

1

KMNIST Dataset

MNIST不能代表现代计算机视觉任务,深度学习社区在这一方面已经取得共识。新版的TensorFlow入门文档就把MNIST换成了Fashion-MNIST。而CODH在NIPS 2018上发表的KMNIST数据集则是另一个MNIST替代品。该数据集的任务是分类日文崩し字(日文古籍常用的书写体)。类似MNIST,KMNIST包含70000张28x28的灰度图像,共有10个分类。

地址:http://codh.rois.ac.jp/kmnist/

2

DropMax: Adaptive Variational Softmax

韩国科学技术学院和牛津大学的研究人员在NIPS 2018上提出了一种新的随机softmax分类器,DropMax。DropMax在每次迭代中随机抛弃一些非目标分类,从而起到正则化作用。某种意义上,这种做法有点像boosting集成学习。因为分类任务中softmax层几乎是标配,所以DropMax的适用范围很广,可以应用于各种网络架构。

地址:http://papers.nips.cc/paper/7371-dropmax-adaptive-variational-softmax

3

Neural Code Comprehension: A Learnable Representation of Code Semantics

ETH的Tal Ben-Nun、Alice Shoshana Jakobovits、Torsten Hoefler在NIPS 2018上发表了一种新的学习代码语义的技术,基于独立于源编程语言的中间表示(IR)学习指令嵌入Inst2Vec。

地址:http://papers.nips.cc/paper/7617-neural-code-comprehension-a-learnable-representation-of-code-semantics

星标 论智,每天获取最新资讯

登录查看更多
17

相关内容

MNIST 数据集来自美国国家标准与技术研究所, National Institute of Standards and Technology (NIST). 训练集 (training set) 由来自 250 个不同人手写的数字构成, 其中 50% 是高中学生, 50% 来自人口普查局 (the Census Bureau) 的工作人员. 测试集(test set) 也是同样比例的手写数字数据。
【ICML2020】用于强化学习的对比无监督表示嵌入
专知会员服务
27+阅读 · 2020年7月6日
【2020新书】从Excel中学习数据挖掘,223页pdf
专知会员服务
85+阅读 · 2020年6月28日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
异常检测论文大列表:方法、应用、综述
专知
125+阅读 · 2019年7月15日
干货 | 100+个NLP数据集大放送,再不愁数据!
THU数据派
13+阅读 · 2018年5月1日
教程帖:深度学习模型的部署
论智
8+阅读 · 2018年1月20日
深度 | 从Boosting到Stacking,概览集成学习的方法与性能
深度学习世界
3+阅读 · 2017年8月28日
Arxiv
53+阅读 · 2018年12月11日
3D-LaneNet: end-to-end 3D multiple lane detection
Arxiv
7+阅读 · 2018年11月26日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
5+阅读 · 2017年10月27日
VIP会员
Top
微信扫码咨询专知VIP会员