教程题目:Unsupervised Cross-Lingual Representation Learning

教程简介

在本教程中,将会对弱监督、无监督跨语言词表征领域的最新最前沿成果进行一次完整的综述。在简要介绍了监督跨语言词表示的历史之后,重点介绍以下内容:

  1. 如何在资源非常有限以至于无法保证双语监督的情况下引入弱监督以及无监督的跨语言词表征;
  2. 在无监督方法无法高效运行的情况下检验不同训练条件和要求的效果;
  3. 用于弱关联性语言之间的更鲁棒的方法能够改善不稳定以及表现不佳的问题;
  4. 如何综合评价这种表述;
  5. 介绍能从跨语言词表征中获得收益的实际应用(如MT、对话、跨语言序列标记和结构化预测应用、跨语言IR)

组织者:

Sebastian Ruder是伦敦DeepMind的一名研究科学家。在Insight数据分析研究中心完成了自然语言处理和深度学习的博士学位,同时在柏林的文本分析初创公司AYLIEN担任研究科学家。

Anders Søgaard是哥本哈根大学计算机科学自然语言处理与机器学习教授,同时是柏林谷歌的访问科学家。

Ivan Vulić目前担任剑桥大学词汇项目(2015-2020年跨语言词汇习得)的高级研究员。在库鲁汶大学获得了计算机科学博士学位,研究兴趣是自然语言处理、人类语言理解、机器学习理论和应用,信息检索,主要在多语言/跨语言和多模式设置,包括(但不限于)双语词典提取和跨语言语义建模、跨语言和多语言信息检索,分布语义,跨语言文本挖掘和知识转移,语言基础和认知建模的语言,词汇获取、文本表示学习、潜在主题模型、文本数据的概率建模、术语挖掘和对齐、机器翻译、资源稀缺语言的无监督技术、多习惯用法和多模态信息搜索和检索、多模态和视觉/感知增强语义等。

成为VIP会员查看完整内容
Unsupervised Cross-lingual Learning.pdf
14

相关内容

Sebastian Ruder是伦敦DeepMind的一名研究科学家。在Insight数据分析研究中心完成了自然语言处理和深度学习的博士学位,同时在柏林的文本分析初创公司AYLIEN担任研究科学家。
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
NLP领域中的迁移学习现状
AI科技评论
7+阅读 · 2019年9月1日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
跨语言版BERT:Facebook提出跨语言预训练模型XLM
机器之心
4+阅读 · 2019年2月6日
【干货】ACL 2018 鲁棒、无偏的NLP训练方法
专知
4+阅读 · 2018年7月25日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
3+阅读 · 2018年8月27日
Phrase-Based & Neural Unsupervised Machine Translation
Arxiv
7+阅读 · 2018年5月23日
VIP会员
相关VIP内容
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
相关论文
微信扫码咨询专知VIP会员