Generative models are often deployed to make decisions on behalf of users, such as vision-language models (VLMs) identifying which person in a room is a doctor to help visually impaired individuals. Yet, VLM decisions are influenced by the perceived demographic attributes of people in the input, which can lead to biased outcomes like failing to identify women as doctors. Moreover, when reducing bias leads to performance loss, users may have varying needs for balancing bias mitigation with overall model capabilities, highlighting the demand for methods that enable controllable bias reduction during inference. Activation steering is a popular approach for inference-time controllability that has shown potential in inducing safer behavior in large language models (LLMs). However, we observe that current steering methods struggle to correct biases, where equiprobable outcomes across demographic groups are required. To address this, we propose Direct Steering Optimization (DSO) which uses reinforcement learning to find linear transformations for steering activations, tailored to mitigate bias while maintaining control over model performance. We demonstrate that DSO achieves state-of-the-art trade-off between fairness and capabilities on both VLMs and LLMs, while offering practitioners inference-time control over the trade-off. Overall, our work highlights the benefit of designing steering strategies that are directly optimized to control model behavior, providing more effective bias intervention than methods that rely on pre-defined heuristics for controllability.


翻译:生成模型常被部署以代表用户做出决策,例如视觉语言模型(VLMs)可帮助视障人士识别房间中哪位是医生。然而,VLM的决策受输入图像中人物感知人口统计学属性的影响,可能导致有偏见的结果,例如未能将女性识别为医生。此外,当减少偏见导致性能损失时,用户对平衡偏见缓解与模型整体能力的需求可能各不相同,这凸显了对在推理过程中实现可控偏见减少方法的需求。激活导向是一种流行的推理时可控性方法,已在诱导大型语言模型(LLMs)更安全行为方面显示出潜力。然而,我们观察到当前导向方法难以纠正偏见,尤其是在需要跨人口统计群体实现等概率结果的情况下。为此,我们提出直接导向优化(DSO),该方法利用强化学习寻找用于导向激活的线性变换,专门设计以缓解偏见,同时保持对模型性能的控制。我们证明,DSO在VLMs和LLMs上实现了公平性与能力之间的最先进权衡,并为实践者提供了推理时对权衡的控制。总体而言,我们的工作强调了设计直接优化以控制模型行为的导向策略的益处,相比依赖预定义启发式方法实现可控性的技术,DSO提供了更有效的偏见干预。

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年6月15日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员