通过提示,大规模预训练模型变得更具表达力和威力,在近年来受到了显著的关注。尽管这些大型模型具有零射击能力,但总的来说,仍需要标签数据来使它们适应下游任务。为了克服这个关键的限制,我们提出了一个无监督的微调框架,直接在未标记的目标数据上微调模型或提示。我们演示了如何通过对齐从提示和目标数据中提取的离散分布,将我们的方法应用于语言增强视觉和掩蔽语言模型。为了验证我们的方法的适用性,我们在图像分类、情感分析和自然语言推理任务上进行了大量实验。在13个与图像相关的任务和15个与语言相关的任务中,我们的方法都取得了比基线更好的一致性改善。PyTorch的代码可以在https://github.com/korawat-tanwisuth/POUF上找到。

成为VIP会员查看完整内容
39

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议。 2023年7月23日至29日周六在夏威夷会议中心举行。
【ICML2023】改善自监督Vision Transformers的视觉提示调优
专知会员服务
36+阅读 · 2023年6月12日
专知会员服务
19+阅读 · 2021年9月13日
文本+视觉,多篇 Visual/Video BERT 论文介绍
AI科技评论
22+阅读 · 2019年8月30日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
已删除
Arxiv
33+阅读 · 2020年3月23日
Arxiv
21+阅读 · 2019年3月25日
VIP会员
相关VIP内容
【ICML2023】改善自监督Vision Transformers的视觉提示调优
专知会员服务
36+阅读 · 2023年6月12日
专知会员服务
19+阅读 · 2021年9月13日
相关基金
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
已删除
Arxiv
33+阅读 · 2020年3月23日
Arxiv
21+阅读 · 2019年3月25日
微信扫码咨询专知VIP会员