请选择VIP会员认证方式
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
表示学习
关注
160
表示学习是通过利用训练数据来学习得到向量表示,这可以克服人工方法的局限性。 表示学习通常可分为两大类,无监督和有监督表示学习。大多数无监督表示学习方法利用自动编码器(如去噪自动编码器和稀疏自动编码器等)中的隐变量作为表示。 目前出现的变分自动编码器能够更好的容忍噪声和异常值。 然而,推断给定数据的潜在结构几乎是不可能的。 目前有一些近似推断的策略。 此外,一些无监督表示学习方法旨在近似某种特定的相似性度量。提出了一种无监督的相似性保持表示学习框架,该框架使用矩阵分解来保持成对的DTW相似性。 通过学习保持DTW的shaplets,即在转换后的空间中的欧式距离近似原始数据的真实DTW距离。有监督表示学习方法可以利用数据的标签信息,更好地捕获数据的语义结构。 孪生网络和三元组网络是目前两种比较流行的模型,它们的目标是最大化类别之间的距离并最小化了类别内部的距离。
综合
百科
VIP
热门
动态
论文
精华
精品内容
【开放书】《面向自然语言处理的表示学习》,清华大学,Representation Learning for Natural Language Processing
专知会员服务
24+阅读 · 3月24日
【哥伦比亚大学】复杂网络深度表示的几何和拓扑推理,Geometric and Topological Inference for Deep Representations of Complex Networks
专知会员服务
8+阅读 · 3月11日
【香港科技大学等】视觉-语言智能:任务、表示学习和大模型,Vision-Language Intelligence: Tasks, Representation Learning, and Large Models
专知会员服务
20+阅读 · 3月8日
香港浸会大学最新《标签噪声表示学习》综述论文,全面阐述LNRL的数据、目标函数与优化策略
专知会员服务
20+阅读 · 2月15日
【AAAI2022】不确定性感知的多视角表示学习
专知会员服务
25+阅读 · 1月25日
自然语言处理中的文本表示研究
专知会员服务
41+阅读 · 1月10日
【NeurIPS'21】使用典型相关分析轻松高效地实现大图上的自监督表示学习
专知会员服务
10+阅读 · 1月6日
【WSDM2022】具有分层注意力的图嵌入
专知会员服务
24+阅读 · 2021年11月17日
面向知识图谱的图嵌入学习研究进展
专知会员服务
44+阅读 · 2021年11月3日
应用知识图谱的推荐方法与系统
专知会员服务
31+阅读 · 2021年10月20日
【ICML2021】用于对比表示学习的分解互信息估计
专知会员服务
24+阅读 · 2021年9月9日
【ICML2021】 具有局部和全局的自监督图表示学习
专知会员服务
27+阅读 · 2021年8月7日
异质网络表示学习综述论文
专知会员服务
35+阅读 · 2021年8月2日
【ICML2021】互信息分解估计的对比表示学习
专知会员服务
29+阅读 · 2021年7月1日
【ICML2021】学习对称解纠缠多对象表示的有效迭代平摊推理
专知会员服务
11+阅读 · 2021年6月9日
参考链接
父主题
机器学习
数据挖掘
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top