成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
NLU
关注
1
综合
百科
VIP
热门
动态
论文
精华
Can large language models understand uncommon meanings of common words?
Arxiv
0+阅读 · 5月9日
A Two-Stage Prediction-Aware Contrastive Learning Framework for Multi-Intent NLU
Arxiv
0+阅读 · 5月5日
Towards Incremental Transformers: An Empirical Analysis of Transformer Models for Incremental NLU
Arxiv
0+阅读 · 5月2日
From Form(s) to Meaning: Probing the Semantic Depths of Language Models Using Multisense Consistency
Arxiv
0+阅读 · 4月18日
Preuve de concept d'un bot vocal dialoguant en wolof
Arxiv
0+阅读 · 4月2日
SQATIN: Supervised Instruction Tuning Meets Question Answering for Improved Dialogue NLU
Arxiv
0+阅读 · 4月8日
Natural Language Processing for Dialects of a Language: A Survey
Arxiv
0+阅读 · 3月28日
XNLIeu: a dataset for cross-lingual NLI in Basque
Arxiv
0+阅读 · 4月10日
Incremental Processing in the Age of Non-Incremental Encoders: An Empirical Assessment of Bidirectional Models for Incremental NLU
Arxiv
0+阅读 · 3月28日
Metacognitive Prompting Improves Understanding in Large Language Models
Arxiv
0+阅读 · 3月20日
Do Not Worry if You Do Not Have Data: Building Pretrained Language Models Using Translationese
Arxiv
0+阅读 · 3月21日
Don't Blame the Annotator: Bias Already Starts in the Annotation Instructions
Arxiv
0+阅读 · 3月20日
Do Not Worry if You Do Not Have Data: Building Pretrained Language Models Using Translationese
Arxiv
0+阅读 · 3月20日
SIB-200: A Simple, Inclusive, and Big Evaluation Dataset for Topic Classification in 200+ Languages and Dialects
Arxiv
0+阅读 · 3月7日
RDR: the Recap, Deliberate, and Respond Method for Enhanced Language Understanding
Arxiv
0+阅读 · 3月5日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top