There are two approaches for pairwise sentence scoring: Cross-encoders, which perform full-attention over the input pair, and Bi-encoders, which map each input independently to a dense vector space. While cross-encoders often achieve higher performance, they are too slow for many practical use cases. Bi-encoders, on the other hand, require substantial training data and fine-tuning over the target task to achieve competitive performance. We present a simple yet efficient data augmentation strategy called Augmented SBERT, where we use the cross-encoder to label a larger set of input pairs to augment the training data for the bi-encoder. We show that, in this process, selecting the sentence pairs is non-trivial and crucial for the success of the method. We evaluate our approach on multiple tasks (in-domain) as well as on a domain adaptation task. Augmented SBERT achieves an improvement of up to 6 points for in-domain and of up to 37 points for domain adaptation tasks compared to the original bi-encoder performance.


翻译:对称评分有两种方法:交叉计算器,对输入配对进行全面注意;双计算器,独立绘制每个输入到密质矢量空间的图;交叉计算器通常性能较高,但对于许多实际使用案例而言,效果太慢。双计算器则需要大量的培训数据和对目标任务进行微调,以实现竞争性业绩。我们提出了一个简单而有效的数据增强战略,称为增强 SBERT,我们用交叉计算器标出更多的输入配对,以扩大双编码器的培训数据。我们表明,在这个过程中,选择对称是非三重性的,对方法的成功至关重要。我们评估了我们关于多项任务(在现场)和领域适应任务的方法。强化的SBERT在内部改进了6个点,在区域适应任务上改进了37个点,而原先的两编码性能则不同。

0
下载
关闭预览

相关内容

专知会员服务
45+阅读 · 2021年6月1日
专知会员服务
61+阅读 · 2021年5月28日
最新《Transformers模型》教程,64页ppt
专知会员服务
319+阅读 · 2020年11月26日
图像分割方法综述
专知会员服务
56+阅读 · 2020年11月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
VIP会员
Top
微信扫码咨询专知VIP会员