【小样本·多分类】如何解决「小样本」+「多分类」问题?

2020 年 5 月 5 日 深度学习自然语言处理

点击上方,选择星标置顶,每天给你送干货

阅读大概需要5分钟

跟随小博主,每天进步一丢丢


来自 | 知乎

地址 | https://www.zhihu.com/question/389155523/answer/1175157989

作者 | ICOZ

编辑 | 机器学习算法与自然语言处理公众号

本文仅作学术分享,若侵权,请联系后台删文处理


这个就是典型的few shot classification的问题,经常被包装成玄学的meta learning。


目前市面上效果最好的模型反而是最简单的模型,简单来说就是一个pre-trained feature encoder + 一个distance metric就可以直接比较样本来做分类了。


如果一个类里有多个图怎么办?


1.可以fuse一下同类里不同图片的feature,作为此类的prototype,然后用distance metric。


2.也可以直接取nearest neighbour


3.也可以和这一类里的每个数据都求一个distance,然后平均一下,作为和这一类的distance。


4.当你每个类的数据都很多的时候,你其实就可以考虑训练一个classifier了,你可以固定住feature encoder不动,去学习每个类的prototype。当然,如果每个类数据数量差别太大,可以考虑long tail的问题。

具体来说feature encoder怎么来呢?很简单,把你能有的数据全部用上,训练一个CNN,然后把fc layer扔掉,你就得到一个feature encoder了。

那distance metric呢?可以是 欧氏距离 (prototypical network), cosine distance (matching network),还有EMD距离 (DeepEMD)。基于此种方法的few shot classification miniimagenet 1shot5way的task已经可以达到68%+的正确率了,目前最好的结果。


再补充两句关于feature encoder的渊源。最开始matching network提出了一种训练模式,叫做episode learning,就是每次sample一个classification task,比如5张训练图片,10张测试图片,然后去做分类,cross entropy 作为loss来训练。这样做的目的就是想通过这种方式学习到那些比较general的feature,希望可以在unseen class上也能用到的feature。但是这种方法显然很低效,因为每次训练的图片太少。后来一众fancy的meta learning算法都是基于这种训练方式来学习,编出了各种美丽的故事。


后来有人发现直接把所有training class拿来训个分类器,再把fc layer扔了,用来提取feature,效果巨好,吊打各种meta learning算法。最早期的paper,prototypical network 和matching network就远比SOA的方法好很多。所以现在最好的训练方法一般是一个feature pre-training的环节(训练一个普通分类cnn),再扔掉fc layer,然后用episode training。这个时候episode training的角色就变了,从学习feature变成了调整feature,效率就高很多了。


以后有空可以整理一下市面上这些又简单效果又巨好的few shot 方法,作为baseline模型供大家使用。




投稿或交流学习,备注: 昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多: 机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等
记得备注呦


让更多的人知道你“在看”
登录查看更多
3

相关内容

【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
专知会员服务
109+阅读 · 2020年6月26日
基于深度神经网络的少样本学习综述
专知会员服务
167+阅读 · 2020年4月22日
专知会员服务
109+阅读 · 2020年3月20日
医学图像分割的深度学习解决方案综述
专知会员服务
86+阅读 · 2020年2月14日
【斯坦福&Google】面向机器人的机器学习,63页PPT
专知会员服务
23+阅读 · 2019年11月19日
零样本图像分类综述 : 十年进展
专知会员服务
123+阅读 · 2019年11月16日
如何解决计算机视觉中的深度域适应问题?
AI前线
28+阅读 · 2019年7月24日
标签间相关性在多标签分类问题中的应用
人工智能前沿讲习班
22+阅读 · 2019年6月5日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
论文浅尝 | 用图网络做小样本学习
开放知识图谱
65+阅读 · 2018年6月30日
解决机器学习问题有通法!看这一篇就够了!
大数据文摘
4+阅读 · 2017年9月18日
Arxiv
15+阅读 · 2019年4月4日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
13+阅读 · 2019年1月26日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
19+阅读 · 2018年3月28日
VIP会员
相关VIP内容
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
专知会员服务
109+阅读 · 2020年6月26日
基于深度神经网络的少样本学习综述
专知会员服务
167+阅读 · 2020年4月22日
专知会员服务
109+阅读 · 2020年3月20日
医学图像分割的深度学习解决方案综述
专知会员服务
86+阅读 · 2020年2月14日
【斯坦福&Google】面向机器人的机器学习,63页PPT
专知会员服务
23+阅读 · 2019年11月19日
零样本图像分类综述 : 十年进展
专知会员服务
123+阅读 · 2019年11月16日
相关资讯
如何解决计算机视觉中的深度域适应问题?
AI前线
28+阅读 · 2019年7月24日
标签间相关性在多标签分类问题中的应用
人工智能前沿讲习班
22+阅读 · 2019年6月5日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
论文浅尝 | 用图网络做小样本学习
开放知识图谱
65+阅读 · 2018年6月30日
解决机器学习问题有通法!看这一篇就够了!
大数据文摘
4+阅读 · 2017年9月18日
相关论文
Arxiv
15+阅读 · 2019年4月4日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
13+阅读 · 2019年1月26日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
19+阅读 · 2018年3月28日
Top
微信扫码咨询专知VIP会员