Capsule Networks (CapsNets) are brand-new architectures that have shown ground-breaking results in certain areas of Computer Vision (CV). In 2017, Hinton and his team introduced CapsNets with routing-by-agreement in "Sabour et al" and in a more recent paper "Matrix Capsules with EM Routing" they proposed a more complete architecture with Expectation-Maximization (EM) algorithm. Unlike the traditional convolutional neural networks (CNNs), this architecture is able to preserve the pose of the objects in the picture. Due to this characteristic, it has been able to beat the previous state-of-theart results on the smallNORB dataset, which includes samples with various view points. Also, this architecture is more robust to white box adversarial attacks. However, CapsNets have two major drawbacks. They can't perform as well as CNNs on complex datasets and, they need a huge amount of time for training. We try to mitigate these shortcomings by finding optimum settings of EM routing iterations for training CapsNets. Unlike the past studies, we use un-equal numbers of EM routing iterations for different stages of the CapsNet. For our research, we use three datasets: Yale face dataset, Belgium Traffic Sign dataset, and Fashion-MNIST dataset.


翻译:Capsule Networks(CapsNets) 是一个崭新的架构,在计算机视野(CV)的某些领域显示了突破性成果。 2017年, Hinton及其团队在“ Sabour et al” 和最近的一份论文“ Matrix Capsules with EM Rout” 中引入了CapsNets, 并按路径逐条协议在“ Sabour et al” 和最近一份论文“ Matrix Capsules with EM Rout” 中引入了Capsule Nets 。 与传统的 convolutional 神经网络( CNN) 不同, 这一架构能够保存图片中对象的外观。 由于这个特点, Hintonton及其团队能够击败小NORB 数据集上先前的状态结果, 其中包括各种视图的样本。 另外, 这个架构对白框的对 Emouts 有两个主要的反向。 但是, CapsNet 无法在复杂的数据集上和CNIS 一起运行, 他们需要大量的时间来训练。 我们试图减轻这些缺点。 我们的 Emrout- train lating its face- dreactions flistrutations the dad ad distrudations

0
下载
关闭预览

相关内容

专知会员服务
61+阅读 · 2020年3月4日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
胶囊网络资源汇总
论智
7+阅读 · 2018年3月10日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks教程
全球人工智能
10+阅读 · 2017年11月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
5+阅读 · 2018年1月30日
VIP会员
相关资讯
胶囊网络资源汇总
论智
7+阅读 · 2018年3月10日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks教程
全球人工智能
10+阅读 · 2017年11月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员