Automated Essay Scoring (AES) has emerged to prominence in response to the growing demand for educational automation. Providing an objective and cost-effective solution, AES standardises the assessment of extended responses. Although substantial research has been conducted in this domain, recent investigations reveal that alternative deep-learning architectures outperform transformer-based models. Despite the successful dominance in the performance of the transformer architectures across various other tasks, this discrepancy has prompted a need to enrich transformer-based AES models through contextual enrichment. This study delves into diverse contextual factors using the ASAP-AES dataset, analysing their impact on transformer-based model performance. Our most effective model, augmented with multiple contextual dimensions, achieves a mean Quadratic Weighted Kappa score of 0.823 across the entire essay dataset and 0.8697 when trained on individual essay sets. Evidently surpassing prior transformer-based models, this augmented approach only underperforms relative to the state-of-the-art deep learning model trained essay-set-wise by an average of 3.83\% while exhibiting superior performance in three of the eight sets. Importantly, this enhancement is orthogonal to architecture-based advancements and seamlessly adaptable to any AES model. Consequently, this contextual augmentation methodology presents a versatile technique for refining AES capabilities, contributing to automated grading and evaluation evolution in educational settings.


翻译:自动作文评分(AES)因应教育自动化日益增长的需求而受到广泛关注。作为一种客观且经济高效的解决方案,AES实现了对扩展性回答评估的标准化。尽管该领域已有大量研究,但近期调查表明,其他深度学习架构在性能上优于基于Transformer的模型。尽管Transformer架构在其他多种任务中均展现出卓越的性能主导地位,但这一差异促使需要通过上下文增强来优化基于Transformer的AES模型。本研究利用ASAP-AES数据集深入探究了多种上下文因素,并分析了它们对基于Transformer模型性能的影响。我们通过多维度上下文增强的最有效模型,在整个作文数据集上取得了0.823的平均二次加权Kappa分数,而在针对单个作文集训练时达到0.8697。该增强方法明显超越了先前的基于Transformer模型,仅相对于当前最优的按作文集训练的深度学习模型平均低3.83%,且在八个数据集中有三个表现出更优性能。重要的是,这种增强方法与基于架构的改进正交,并可无缝适配于任何AES模型。因此,这种上下文增强方法为提升AES能力提供了一种通用技术,有助于推动教育环境中自动化评分与评估体系的发展。

0
下载
关闭预览

相关内容

【ICML2024】上下文感知标记化的高效世界模型
专知会员服务
29+阅读 · 2024年7月2日
专知会员服务
41+阅读 · 2021年6月19日
ICLR'21 | GNN联邦学习的新基准
图与推荐
12+阅读 · 2021年11月15日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员