微软亚洲研究院提出多语言通用文档理解预训练模型LayoutXLM
微软研究院AI头条
2+阅读 · 2021年6月1日
垂直领域出海,多语言预训练好使吗?
PaperWeekly
1+阅读 · 2021年1月27日
微软多语言预训练模型T-ULRv2登顶XTREME排行榜
微软研究院AI头条
0+阅读 · 2020年11月4日
XLM-RoBERTa: 一种多语言预训练模型
AINLP
1+阅读 · 2020年7月31日
XLM-RoBERTa: 一种多语言预训练模型
深度学习自然语言处理
8+阅读 · 2020年7月26日
[预训练语言模型专题]跨语种语言模型
AINLP
0+阅读 · 2020年5月11日
Facebook 提出一种新型BERT:面向跨语言理解的XLM-R
学术头条
1+阅读 · 2019年11月28日
参考链接
微信扫码咨询专知VIP会员