Some data analysis applications comprise datasets, where explanatory variables are expensive or tedious to acquire, but auxiliary data are readily available and might help to construct an insightful training set. An example is neuroimaging research on mental disorders, specifically learning a diagnosis/prognosis model based on variables derived from expensive Magnetic Resonance Imaging (MRI) scans, which often requires large sample sizes. Auxiliary data, such as demographics, might help in selecting a smaller sample that comprises the individuals with the most informative MRI scans. In active learning literature, this problem has not yet been studied, despite promising results in related problem settings that concern the selection of instances or instance-feature pairs. Therefore, we formulate this complementary problem of Active Selection of Classification Features (ASCF): Given a primary task, which requires to learn a model f: x-> y to explain/predict the relationship between an expensive-to-acquire set of variables x and a class label y. Then, the ASCF-task is to use a set of readily available selection variables z to select these instances, that will improve the primary task's performance most when acquiring their expensive features z and including them to the primary training set. We propose two utility-based approaches for this problem, and evaluate their performance on three public real-world benchmark datasets. In addition, we illustrate the use of these approaches to efficiently acquire MRI scans in the context of neuroimaging research on mental disorders, based on a simulated study design with real MRI data.


翻译:一些数据分析应用包括数据集,其中解释性变量昂贵或容易获取,但辅助性数据很容易获得,可能有助于建立有洞察力的培训组。例如,对精神失常进行神经成像研究,具体学习基于昂贵磁共振成像(MRI)扫描(MRI)变量的诊断/预测模型,这往往需要大量样本。人口学等辅助性数据可能有助于选择由拥有最丰富的MRI扫描机的个人组成的较小样本。在积极学习文献中,这一问题尚未得到研究,尽管在涉及选择实例或实例性能配对的相关问题设置中取得了有希望的结果。因此,我们根据一个主要任务,即需要学习一个模型f:x - > 和解释/解释一个昂贵到一定值的变量x和等级标签y。然后,ASCF-tak-tak将使用一套随时可用的选择变量z,来选择这些实例或实例性能配对。因此,我们设计主动选择分类特性的诊断/预测这一互补问题:鉴于一项主要任务需要学习一个模型 f:x - > y y 解释一个昂贵的变量集x 和一个等级标签 y。然后,AC-tak-tak to the a sreal ass assal assilling the prial assing the prialing the prial prial prial prial laction the priction the priction the priction the prial mamental pal mamental mamental mamental mamentalmental mamental mamental mamental mamental mamentalmental mamental mamental mamental mamental mamental mamental mamental mas mas mamental mamental mamental subal mamental mas mas mas mas mas mas mas maisal mamental ma ma ma mament mas mas mas mas mas mas mas mas mas mas mas mas mas mas mas mas mas mas mas mas

0
下载
关闭预览

相关内容

【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
专知会员服务
41+阅读 · 2020年12月18日
专知会员服务
28+阅读 · 2020年12月7日
【干货书】机器学习速查手册,135页pdf
专知会员服务
121+阅读 · 2020年11月20日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
126+阅读 · 2020年5月14日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
已删除
将门创投
6+阅读 · 2019年7月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Arxiv
0+阅读 · 2021年4月15日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关VIP内容
【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
专知会员服务
41+阅读 · 2020年12月18日
专知会员服务
28+阅读 · 2020年12月7日
【干货书】机器学习速查手册,135页pdf
专知会员服务
121+阅读 · 2020年11月20日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
126+阅读 · 2020年5月14日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
已删除
将门创投
6+阅读 · 2019年7月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Top
微信扫码咨询专知VIP会员