Deep learning has been effectively applied to many discrete optimization problems. However, learning-based scheduling on unrelated parallel machines remains particularly difficult to design. Not only do the numbers of jobs and machines vary, but each job-machine pair has a unique processing time, dynamically altering feature dimensions. We propose a novel approach with a neural network tailored for offline deterministic scheduling of arbitrary sizes on unrelated machines. The goal is to minimize a complex objective function that includes the makespan and the weighted tardiness of jobs and machines. Unlike existing online approaches, which process jobs sequentially, our method generates a complete schedule considering the entire input at once. The key contribution of this work lies in the sophisticated architecture of our model. By leveraging various NLP-inspired architectures, it effectively processes any number of jobs and machines with varying feature dimensions imposed by unrelated processing times. Our approach enables supervised training on small problem instances while demonstrating strong generalization to much larger scheduling environments. Trained and tested on instances with 8 jobs and 4 machines, costs were only 2.51% above optimal. Across all tested configurations of up to 100 jobs and 10 machines, our network consistently outperformed an advanced dispatching rule, which incurred 22.22% higher costs on average. As our method allows fast retraining with simulated data and adaptation to various scheduling conditions, we believe it has the potential to become a standard approach for learning-based scheduling on unrelated machines and similar problem environments.


翻译:深度学习已有效应用于众多离散优化问题。然而,基于学习的无关并行机调度方法设计尤为困难。不仅任务数量和机器数量会变化,每个任务-机器组合还具有独特的处理时间,这会动态改变特征维度。我们提出了一种新颖方法,采用专门为任意规模无关机离线确定性调度设计的神经网络。其目标是最小化一个复杂的目标函数,该函数包含制造周期以及任务和机器的加权延迟。与现有在线方法(顺序处理任务)不同,我们的方法一次性考虑整个输入来生成完整的调度方案。本工作的关键贡献在于我们模型的复杂架构。通过利用多种受自然语言处理启发的架构,该模型能有效处理任意数量的任务和机器,并适应由无关处理时间带来的可变特征维度。我们的方法支持在小规模问题实例上进行监督训练,同时展现出对更大规模调度环境的强大泛化能力。在包含8个任务和4台机器的实例上进行训练和测试,其成本仅比最优解高出2.51%。在所有测试配置(最多100个任务和10台机器)中,我们的网络始终优于先进的调度规则,后者平均成本高出22.22%。由于我们的方法允许使用模拟数据进行快速重新训练,并能适应各种调度条件,我们相信它有望成为无关机及类似问题环境中基于学习的调度标准方法。

0
下载
关闭预览

相关内容

【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
专知会员服务
16+阅读 · 2021年7月7日
神经网络机器翻译原理:LSTM、seq2seq到Zero-Shot
北京思腾合力科技有限公司
11+阅读 · 2017年8月10日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关资讯
神经网络机器翻译原理:LSTM、seq2seq到Zero-Shot
北京思腾合力科技有限公司
11+阅读 · 2017年8月10日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员