Modern generative pre-trained language models excel at open-ended text generation, yet continue to underperform on structure-related tasks such as NER, relation extraction, and semantic role labeling, especially when compared to encoder-only models of similar sizes. While this gap has been attributed to limited structure knowledge, we hypothesize this is also due to the missing connection between the model's internal representations of linguistic structure and the output space used during supervised fine-tuning. We propose the Structured Language Generation Model (SLGM), a model- and task-agnostic framework that reformulates structured prediction as a classification problem through three components: (1) reinforced input formatting with structural cues, (2) loss design, and (3) format-aware decoding that constrains generation to task-valid outputs. Across 5 tasks and 13 datasets, SLGM substantially improves structure prediction without relying on dataset-specific engineering or additional model parameters, strengthening alignment between the model's internal structure representation and output. It outperforms baseline fine-tuning on models of the same size, achieves comparable performance to much larger models when used with <1B parameter models, and acts as a zero-weight adapter that reproduces the benefits of dataset-specific fine-tuning in low-resource settings.


翻译:现代生成式预训练语言模型在开放域文本生成方面表现卓越,但在结构相关任务(如命名实体识别、关系抽取和语义角色标注)上仍逊色于同等规模的编码器模型。尽管这一差距常被归因于结构知识的不足,我们假设其根源还在于模型内部的语言结构表征与监督微调阶段使用的输出空间之间缺乏有效关联。本文提出结构化语言生成模型——一种与具体模型及任务无关的框架,通过三个核心组件将结构化预测重构为分类问题:(1)融入结构线索的强化输入格式化;(2)损失函数设计;(3)约束生成过程仅输出任务有效结果的格式感知解码机制。在5类任务、13个数据集上的实验表明,SLGM无需依赖数据集特定工程或额外模型参数即可显著提升结构预测性能,有效增强了模型内部结构表征与输出之间的对齐。该框架在同等规模模型上优于基线微调方法,当与参数量小于10亿的模型结合时,其性能可与规模大得多的模型相媲美,并可作为零参数量适配器在低资源场景中复现数据集特定微调的优势。

0
下载
关闭预览

相关内容

国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员