Financial sentiment analysis plays a crucial role in informing investment decisions, assessing market risk, and predicting stock price trends. Existing works in financial sentiment analysis have not considered the impact of stock prices or market feedback on sentiment analysis. In this paper, we propose an adaptive framework that integrates large language models (LLMs) with real-world stock market feedback to improve sentiment classification in the context of the Indian stock market. The proposed methodology fine-tunes the LLaMA 3.2 3B model using instruction-based learning on the SentiFin dataset. To enhance sentiment predictions, a retrieval-augmented generation (RAG) pipeline is employed that dynamically selects multi-source contextual information based on the cosine similarity of the sentence embeddings. Furthermore, a feedback-driven module is introduced that adjusts the reliability of the source by comparing predicted sentiment with actual next-day stock returns, allowing the system to iteratively adapt to market behavior. To generalize this adaptive mechanism across temporal data, a reinforcement learning agent trained using proximal policy optimization (PPO) is incorporated. The PPO agent learns to optimize source weighting policies based on cumulative reward signals from sentiment-return alignment. Experimental results on NIFTY 50 news headlines collected from 2024 to 2025 demonstrate that the proposed system significantly improves classification accuracy, F1-score, and market alignment over baseline models and static retrieval methods. The results validate the potential of combining instruction-tuned LLMs with dynamic feedback and reinforcement learning for robust, market-aware financial sentiment modeling.


翻译:金融情感分析在指导投资决策、评估市场风险以及预测股价趋势方面发挥着关键作用。现有金融情感分析研究尚未考虑股价或市场反馈对情感分析的影响。本文提出一种自适应框架,将大语言模型(LLMs)与真实股票市场反馈相结合,以改进印度股票市场背景下的情感分类。所提方法基于SentiFin数据集,通过指令学习对LLaMA 3.2 3B模型进行微调。为增强情感预测,采用检索增强生成(RAG)流水线,根据句子嵌入的余弦相似度动态选择多源上下文信息。此外,引入反馈驱动模块,通过比较预测情感与实际次日股票收益来调整信源可靠性,使系统能够迭代适应市场行为。为在时序数据上泛化该自适应机制,整合了使用近端策略优化(PPO)训练的强化学习智能体。该PPO智能体基于情感-收益对齐的累积奖励信号,学习优化信源加权策略。在2024年至2025年收集的NIFTY 50新闻标题上的实验结果表明,相较于基线模型与静态检索方法,所提系统在分类准确率、F1分数及市场对齐度上均有显著提升。结果验证了将指令调优大语言模型与动态反馈及强化学习相结合,对于构建稳健且具有市场感知能力的金融情感建模具有巨大潜力。

0
下载
关闭预览

相关内容

在社会经济生活,银行、证券或保险业者从市场主体募集资金,并投资给其它市场主体的经济活动。
144页ppt《扩散模型》,Google DeepMind Sander Dieleman
专知会员服务
48+阅读 · 11月21日
【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员