Mental health disorders affect over one-fifth of adults globally, yet detecting such conditions from text remains challenging due to the subtle and varied nature of symptom expression. This study evaluates multiple approaches for mental health detection, comparing Large Language Models (LLMs) such as Llama and GPT with classical machine learning and transformer-based architectures including BERT, XLNet, and Distil-RoBERTa. Using the DAIC-WOZ dataset of clinical interviews, we fine-tuned models for anxiety, depression, and stress classification and applied synthetic data generation to mitigate class imbalance. Results show that Distil-RoBERTa achieved the highest F1 score (0.883) for GAD-2, while XLNet outperformed others on PHQ tasks (F1 up to 0.891). For stress detection, a zero-shot synthetic approach (SD+Zero-Shot-Basic) reached an F1 of 0.884 and ROC AUC of 0.886. Findings demonstrate the effectiveness of transformer-based models and highlight the value of synthetic data in improving recall and generalization. However, careful calibration is required to prevent precision loss. Overall, this work emphasizes the potential of combining advanced language models and data augmentation to enhance automated mental health assessment from text.


翻译:全球超过五分之一的成年人受到心理健康障碍的影响,但由于症状表达的微妙性和多样性,从文本中检测此类状况仍具挑战性。本研究评估了多种心理健康检测方法,比较了Llama和GPT等大型语言模型与经典机器学习及基于Transformer的架构(包括BERT、XLNet和Distil-RoBERTa)的性能。利用临床访谈数据集DAIC-WOZ,我们对模型进行了焦虑、抑郁和压力分类的微调,并应用合成数据生成以缓解类别不平衡问题。结果显示,Distil-RoBERTa在GAD-2任务上取得了最高的F1分数(0.883),而XLNet在PHQ任务上表现最优(F1最高达0.891)。在压力检测方面,零样本合成方法(SD+Zero-Shot-Basic)达到了0.884的F1分数和0.886的ROC AUC。研究结果证明了基于Transformer的模型的有效性,并凸显了合成数据在提升召回率和泛化能力方面的价值。然而,需要谨慎校准以避免精度损失。总体而言,本工作强调了结合先进语言模型与数据增强技术以提升基于文本的自动化心理健康评估的潜力。

0
下载
关闭预览

相关内容

RAG与RAU:自然语言处理中的检索增强语言模型综述
专知会员服务
87+阅读 · 2024年5月3日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
ICLR'21 | GNN联邦学习的新基准
图与推荐
12+阅读 · 2021年11月15日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员