成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
Machine Translation
·
稳健性
·
训练数据
·
机器翻译
·
MoDELS
·
2019 年 12 月 11 日
MetaMT,a MetaLearning Method Leveraging Multiple Domain Data for Low Resource Machine Translation
翻译:MetMT, a MetMT, a MetMT, a MetLearn 方法,利用多域数据进行低资源机器翻译
Rumeng Li,Xun Wang,Hong Yu
Manipulating training data leads to robust neural models for MT.
翻译:操纵培训数据为MT提供了强有力的神经模型。
点赞并收藏
0
暂时没有读者
0
下载
关闭预览
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
Machine Translation
关注
0
机器翻译(Machine Translation)涵盖计算语言学和语言工程的所有分支,包含多语言方面。特色论文涵盖理论,描述或计算方面的任何下列主题:双语和多语语料库的编写和使用,计算机辅助语言教学,非罗马字符集的计算含义,连接主义翻译方法,对比语言学等。 官网地址:
http://dblp.uni-trier.de/db/journals/mt/
【领域对抗学习的低资源文本分类】Low-Resource Text Classification using Domain-Adversarial Learning
专知会员服务
22+阅读 · 2020年4月22日
【伯克利】元学习的元基线,A New Meta-Baseline for Few-Shot Learning
专知会员服务
64+阅读 · 2020年3月28日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
【跨语言BERT模型大集合】Transfer learning is increasingly going multilingual with language-specific BERT models
专知会员服务
52+阅读 · 2020年1月30日
【ICLR2020】理解非自回归机器翻译中的知识蒸馏(Understanding Knowledge Distillation in Non-autoregressive Machine Translation)
专知会员服务
10+阅读 · 2019年12月28日
【机器学习基础最新版】(Mathematics for Machine Learning),417页pdf
专知会员服务
234+阅读 · 2019年10月21日
Auto-Sizing the Transformer Network: Improving Speed, Efficiency, and Performance for Low-Resource Machine Translation
专知会员服务
45+阅读 · 2019年10月17日
Connections between Support Vector Machines, Wasserstein distance and gradient-penalty GANs
专知会员服务
30+阅读 · 2019年10月17日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
56+阅读 · 2019年10月17日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知
130+阅读 · 2020年3月18日
多任务学习(Multitask-Learning)相关资料、经典论文、开源代码整理分享
深度学习与NLP
45+阅读 · 2019年10月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【Github2.2K星】PyTorch资源列表:450个NLP/CV/SP、论文实现、教程、示例
新智元
6+阅读 · 2018年10月22日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
A Survey of Domain Adaptation for Neural Machine Translation
Arxiv
17+阅读 · 2018年6月1日
Neural Machine Translation for Bilingually Scarce Scenarios: A Deep Multi-task Learning Approach
Arxiv
9+阅读 · 2018年5月11日
Learning Matching Models with Weak Supervision for Response Selection in Retrieval-based Chatbots
Arxiv
4+阅读 · 2018年5月7日
Phrase-Based & Neural Unsupervised Machine Translation
Arxiv
4+阅读 · 2018年4月20日
Approaching Neural Grammatical Error Correction as a Low-Resource Machine Translation Task
Arxiv
3+阅读 · 2018年4月16日
Unsupervised Machine Translation Using Monolingual Corpora Only
Arxiv
5+阅读 · 2018年4月13日
Handling Homographs in Neural Machine Translation
Arxiv
3+阅读 · 2018年3月28日
Joint Training for Neural Machine Translation Models with Monolingual Data
Arxiv
4+阅读 · 2018年3月1日
Unsupervised Neural Machine Translation
Arxiv
6+阅读 · 2018年2月26日
VIP会员
自助开通(推荐)
客服开通
详情
文章信息
前往arXiv
下载PDF
相关主题
Machine Translation
稳健性
训练数据
机器翻译
MoDELS
相关VIP内容
【领域对抗学习的低资源文本分类】Low-Resource Text Classification using Domain-Adversarial Learning
专知会员服务
22+阅读 · 2020年4月22日
【伯克利】元学习的元基线,A New Meta-Baseline for Few-Shot Learning
专知会员服务
64+阅读 · 2020年3月28日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
【跨语言BERT模型大集合】Transfer learning is increasingly going multilingual with language-specific BERT models
专知会员服务
52+阅读 · 2020年1月30日
【ICLR2020】理解非自回归机器翻译中的知识蒸馏(Understanding Knowledge Distillation in Non-autoregressive Machine Translation)
专知会员服务
10+阅读 · 2019年12月28日
【机器学习基础最新版】(Mathematics for Machine Learning),417页pdf
专知会员服务
234+阅读 · 2019年10月21日
Auto-Sizing the Transformer Network: Improving Speed, Efficiency, and Performance for Low-Resource Machine Translation
专知会员服务
45+阅读 · 2019年10月17日
Connections between Support Vector Machines, Wasserstein distance and gradient-penalty GANs
专知会员服务
30+阅读 · 2019年10月17日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
56+阅读 · 2019年10月17日
热门VIP内容
开通专知VIP会员 享更多权益服务
创新发展智能化指挥控制的思考
【新书】数字孪生手册,923页pdf
边缘AI行业深度:边缘AI硬件,引领硬件创新时代
【CVPR2024】探索多模态大型语言模型中视觉提示的可转移性
相关资讯
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知
130+阅读 · 2020年3月18日
多任务学习(Multitask-Learning)相关资料、经典论文、开源代码整理分享
深度学习与NLP
45+阅读 · 2019年10月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【Github2.2K星】PyTorch资源列表:450个NLP/CV/SP、论文实现、教程、示例
新智元
6+阅读 · 2018年10月22日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
相关论文
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
A Survey of Domain Adaptation for Neural Machine Translation
Arxiv
17+阅读 · 2018年6月1日
Neural Machine Translation for Bilingually Scarce Scenarios: A Deep Multi-task Learning Approach
Arxiv
9+阅读 · 2018年5月11日
Learning Matching Models with Weak Supervision for Response Selection in Retrieval-based Chatbots
Arxiv
4+阅读 · 2018年5月7日
Phrase-Based & Neural Unsupervised Machine Translation
Arxiv
4+阅读 · 2018年4月20日
Approaching Neural Grammatical Error Correction as a Low-Resource Machine Translation Task
Arxiv
3+阅读 · 2018年4月16日
Unsupervised Machine Translation Using Monolingual Corpora Only
Arxiv
5+阅读 · 2018年4月13日
Handling Homographs in Neural Machine Translation
Arxiv
3+阅读 · 2018年3月28日
Joint Training for Neural Machine Translation Models with Monolingual Data
Arxiv
4+阅读 · 2018年3月1日
Unsupervised Neural Machine Translation
Arxiv
6+阅读 · 2018年2月26日
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top