首发于AI打怪路

机器/深度/强化学习与组合优化相关课程、学者、论文等资料归档-持续更新,欢迎留言补充

在研究机器学习/深度学习/强化学习+组合优化的小伙伴欢迎加我微信jjnuxjp5x呀,这条路好艰难,一起逼逼防抑郁嘿嘿嘿~

(好想研究ml/rl+组合优化的小伙伴赶紧冒出来,把积极的拉个群好好讨论呀,这块要做出新意和效果来太难了哈哈哈,如果过期了就加我微信jjnuxjp5x,我拉您入群哈~目前群里聊得火热呀。btw,欢迎大家帮忙宣传,感激不尽我会尽力为社区做贡献的!)


课程:

精选的最相关的学者(以后慢慢补充):

1.William Cook , University of Waterloo , bico@uwaterloo.ca 开了2门非常绝的课:Deep Learning in Computational Discrete Optimization、Deep Learning in Discrete Optimization

2.Bistra Dilkina,University of Southern California,dilkina@usc.edu 开了神课CSI 699 Topics in Discrete Optimization & Learning

3.Soledad Villar ,NYU Center for Data Science,soledad.villar@nyu.edu 对聚类,二次分配,dl,生成模型

4.Mohamed Siala ,INSA Toulouse & LAAS-CNRS,mohamed.siala@insight-centre.org AI、 组合优化、尤其SAT

5.Barry O'Sullivan,School of Computer Science & IT, University College Cork, Ireland,b.osullivan@cs.ucc.ie AI+约束编程

6.Emmanuel Hebrard,Laboratoire d'Analyse et d'Architecture des Systemes,hebrard@laas.fr AI+约束编程

(其中LAAS---https://www.laas.fr/public/en/combinatorial-optimization-and-learning一整个分组都是做CO+ML的,都可以关注下)

7.Toby Walsh,UNSW SYDNEY, TW@CSE.UNSW.EDU.AU AI+组合优化(CO)

8.Bryan Wilder,Harvard University,bwilder@g.harvard.edu AI+CO 很给力的新秀

满200的话拉您进2群,加我微信 jjnuxjp5x

9.Eduardo Rodriguez-Tello,CINVESTAV,ertello@cinvestav.mx,Large-scale CO+AI

10. Amitabh Basu,Johns Hopkins University,basu.amitabh@jhu.edu Discrete and combinatorial geometry+ML

11.Alinson S. Xavier,Argonne National Laboratory,axavier@anl.gov Combinatorics&Optimization+ML

12.Jeffrey A. Bilmes,combinatorial optimization,bilmes@uw.edu AI+combinatorial optimization

13.Frank Hutter,University of Freiburg, tonio.ball@uniklinik-freiburg.de ML+DL+CO

14.Alfredo Braunstein,Politecnico di Torino,alfredo.braunstein@polito.it statistical inference+CO+ML

16.people.ece.uw.edu/bilme

15.people.inf.ethz.ch/ybia 腾讯AILab,ethz的博士,博士主要做的submodular

16.las.inf.ethz.ch/submodu

17.academiccommons.columbia.edu,相关网站academiccommons.columbia.edu

18.GüntherRaidl ac.tuwien.ac.at/people/

18.Mateusz Polnik,Annalisa Riccardi icelab.uk/projects/rese

研讨会(很多在今年下半年还没开):

研讨会也许可以在这儿搜

sites.google.com/view/i 数据科学遇到优化(2019),含不少组合优化的内容,不错
Combinatorial Optimization in Machine Learning and Computer Vision 不错~
Discrete Optimization in Machine Learning nips2014
las.inf.ethz.ch/discml/ nips 2011,2012
有点水 Discrete Optimization and Machine Learning"
DISCML系列:Discrete Structures in Machine Learning 2017 discml.cc/
Seminar 组合优化+机器学习
2020初,这个绝对值得关注!CALL FOR PAPERS Special Issue on Machine Learning and Combinatorial Optimization
离散优化和深度学习算法暑期学校 eti.pg.edu.pl/advanced- 2021
cpaior2020.dbai.tuwien.ac.at the Integration of Constraint Programming, Artificial Intelligence, and Operations Research Online | Mon 21 Sep 2020 - Thu 24 Sep 2020
pms2020.sciencesconf.org 2020
http://math.nsc.ru/conference/motor/2020

ipam.ucla.edu/programs/ 2021年 数据驱动的组合优化研讨会2020下半年 10times.com/data-driven oms.rwth-aachen.de/cms/ Workshop on Integer and Combinatorial Optimization,含一些带ml的东东
wiwi2.tu-dortmund.de/wi SIGOPT 2020 INTERNATIONAL CONFERENCE ON OPTIMIZATION,含一些带ml的东东
oms.rwth-aachen.de/cms/ 2020

其他网页:

建议追踪阿里菜鸟、滴滴、华为等近年来发表的相关paper及相关研究人员主页~

旅行商问题大全!!!

Graphical Models and CSP ppt
Planning/Scheduling with CP Optimizer ppt
ppt Discrete Optimization in Machine Learning
组合优化 (三) 算法简介 | Techive
关于机器学习、强化学习和组合优化的quora回答简单搬运及相关讲座分享
dl/ml/rl+运筹学(尤其组合优化)insight小短文第二更(持续补充)
强化学习应用于组合优化问题
金融工程报告-利用机器学习实现组合优化
组合在线学习:实时反馈玩转组合优化
Hopfield神经网络求解TSP等离散约束优化问题——方法应该过时,但感慨并反思一下
苏宙行个人主页
RaMBO:排名指标黑箱优化-MichalRolínek 黑箱优化是用来解决离散优化在深度学习中不可微分的~
The Fusion of Deep Learning and Combinatorics - Michal Rolínek
二次分配问题QAPLIB-正在从事QAP的人员– COR @ L
中国运筹学会-数学规划分会
optimization - What is the connection of Operations Research and Reinforcement Learning? - Operations Research Stack Exchange
USC-维特比工程学院-维特比教师名录
欢迎使用ACP | 约束编程协会
博士论文| 约束编程协会
Towards Cross-Fertilization Between Data Mining and Constraints
ACP暑期学校| 约束编程协会


论文:

强化学习在运筹学的应用: 研究进展与展望 徐翔斌, 李志鹏

(Deep Learning in Discrete Optimization AMS 467/667, Spring 2020:笔者时间有限,以下直接谷歌翻译,大家见谅)

简介(第1周)
深度学习,Goodfellow,Bengio,Courville,第1-5章。
追求旅行推销员,第1章。

线性编程对偶(第2a周)
追求旅行推销员,第5章。
班轮编程,Vasek Chvatal。LP,对偶性和单纯形算法的精彩介绍。可悲的是,这本书已经绝版,但二手书的价格是13美元。
ORF 307:优化,Robert Vanderbei。基于他的书的课程笔记线性规划:基础和扩展

切平面方法(第2b周)
,针对旅行推销员,第6章。
推销员旅行中的问题:剖切面方法的精确解决方案(YouTube视频。)TSP剖切面方法的教程,是为Concorde TSP应用程序创建的。希望您不要介意Siri的声音。
具有整数规划和Gurobi函数的旅行商问题。演示和示例代码,实现了我们在课堂上讨论的MIP流程。

第2周的注意事项
请阅读《深度学习》,Goodfellow,Bengio,Courville,第6章。
另请安装Gurobi本地计算机上的求解器。Gurobi将用于第一个硬件任务。

硬件1: 根据旅行推销员的要求您好,MIP世界

分公司和界(第3周),第7章。求解混合整数优化问题的分支剪切算法,Jim Luedtke。IMA新路线短期课程,2016年8月10日。 启发式搜索(第4a周),针对旅行推销员,第4章。 STSP启发式的实验分析,DS Johnson,L。McGeoch。出现在《旅行推销员问题及其变化》一书中,由Gutin和Punnen编辑,2002年。(对称)TSP的经典启发式方法概述。

PyTorch教程(第4b周)
教程1,马元业的Jupyter笔记本,课程TA。
graphs6.txt,本教程的数据集。

硬件2: Hello DL World

整流线性单位(第5a周)
了解具有整流线性单位的深层神经网络,R。Arora,A。Basu,P。Mianjy,A。Mukherjee。2018年。出现在ICLR 2018中。
离散几何遇上机器学习(Amitabh Basu)。在2018年1月11日举行的第22届Aussois组合优化研讨会上的演讲。
绑定和计算深度神经网络的线性区域,T。Serra,C。Tjandraatmadja,S。Ramalingam。2018年。出现在ICML 2018中。有关此主题的演讲(由论文的一位作者提供)可以在此处查看。

使用MIP研究ReLU神经网络(第5b周)
深度神经网络和混合整数线性优化,M。Fischetti,J。Jo。2018.发表在《约束》杂志上,2018年7月,第3期,第296-309页。
评估与混合整数规划神经网络的健壮性,五Tjeng,K.晓,R. Tedrake,2019年就出现在可用ICLR 2019年计算机代码在这里
适用于经过训练的神经网络的强大的混合整数编程公式,R。Anderson,J。Huchette,C。Tjandraatmadja,JP Vielma,2018年。出现在ICPCO 2019中 。论文全文,由W. Ma担任其他合著者。

Q学习(第6周)基于图的

学习组合优化算法,H.Dai,EB Khalil,Y.Zhang,B.Dilkina,L.Song。2017年。在NIPS 2017中出现。戴汉俊(Janjun Dai)的计算机代码实现了所讨论的模型在GitHub上可用。戴汉俊(Hanjun Dai)也提供PowerPoint幻灯片以供您讨论此主题。

机器学习用于组合优化:一种方法论的环视旅游,Y.Bengio,A.Lodi,A.Prouvost,2018年。不错的调查论文。

人类机器学习,第5部分:强化学习,V。Maini。2017.温和的介绍;习惯Q学习中使用的术语的好方法。

追求旅行推销员,第9章。复杂性。我们在课堂上讨论的动态编程算法可以在第180--182页上找到。


图神经网络(GNN)(第7a周)

基准图神经网络,副总裁Dwivedi,CK Joshi,T.Laurent,Y.Bengio,X.Bresson。2020年3月2日发布在arXiv.org。计算机代码可在GitHub上获得

关于图神经网络的全面调查,Z。WuS。Pan,F。Chen,G Long,C。Zhang,P。Yu。张贴在arXiv.org 2019年12月4日。

图神经网络:方法和应用的综述,J。Zhou等。发表于arXiv.org,2019年7月10日


。COVID-19和可解释机器学习(第8a周)

Kaggle的COVID-19页面。可以访问大量的44,000篇学术文章。挑战包括10个特定的数据分析任务。

通过列生成的布尔决策规则,S。Dash,O。Gunluk,D。Wei。5000美元的获胜者FICO在NeurIPS 2018上可解释的机器学习挑战


单纯形方法(通过DNN旋转?)(第8b周)

罗伯特·比克斯比:解决线性程序:双重单纯形算法(1/3):一些基本理论(YouTube视频)。Bixby的单纯形算法讲座。

《求解线性和整数程序》,Robert Bixby和Ed Rothberg。我们在课堂上介绍的单纯形方法的描述在幻灯片16上给出。Liner

编程,Vasek Chvatal,第2、3和7章。


序列到序列学习(第9a周)

通过联合学习对齐和翻译来进行神经机器翻译,D。Bahdanau,K。Cho,Y。Bengio。2014.

使用神经网络进行序列到序列学习,I。Sutskever,O。Vinyals,QV Le。2014。

指针网络,O。Vinyals,M。Fortunato,N。Jaitly。2017.


注意(第9b周)

您需要的就是注意力,A. Vaswani,N. Shazeer,N. Parmar,J. Uszkoreit,L. Jones,A. Gomez,L. Kaiser和I. Polosukhin。2017年12月。

大师班:全力以赴。Lukasz Kaiser(Google Brain)关于Vaswani等人的精彩演讲。纸。

Transfomer:一种新颖的用于理解语言的神经网络体系结构。Jakob Uszkoreit的Google AI博客在Vaswani等人上。纸。

注意,学会解决路由问题!,W。Kool,H。van Hoof和M. Welling。出现在ICLR 2019中。(源代码在GitHub上。)


Team Meetings(第10周)

与每个团队进行在线会议,讨论项目建议。


通过机器学习进行分支定界规则(第11a周)

强分支的机器学习坏近似,A。Alvarez,Q。Louveaux,L。Wehenkel。INFORMS计算杂志(2017)185-195。

学习混合整数编程中的分支,EB Khalil,体育Le Bodic,L。Song,G。Nemhauser,B。Dilkina。出现在AAAI 2016中。

图卷积神经网络的精确组合优化,M。Gasse,D。Chetelat,N。Ferroni,L。Charlin,A。Lodi。出现在NeurIPS 2019中。

关于学习和分支:一项调查,A。Lodi,G。Zarpellon。(2017)207-236。

编辑于 2021-03-06 14:44