The early outcome prediction of ongoing or completed processes confers competitive advantage to organizations. The performance of classic machine learning and, more recently, deep learning techniques such as Long Short-Term Memory (LSTM) on this type of classification problem has been thorougly investigated. Recently, much research focused on applying Convolutional Neural Networks (CNN) to time series problems including classification, however not yet to outcome prediction. The purpose of this paper is to close this gap and compare CNNs to LSTMs. Attention is another technique that, in combination with LSTMs, has found application in time series classification and was included in our research. Our findings show that all these neural networks achieve satisfactory to high predictive power provided sufficiently large datasets. CNNs perfom on par with LSTMs; the Attention mechanism adds no value to the latter. Since CNNs run one order of magnitude faster than both types of LSTM, their use is preferable. All models are robust with respect to their hyperparameters and achieve their maximal predictive power early on in the cases, usually after only a few events, making them highly suitable for runtime predictions. We argue that CNNs' speed, early predictive power and robustness should pave the way for their application in process outcome prediction.


翻译:对进行中或完成过程的早期结果预测给各组织带来了竞争优势。传统机器学习的绩效,以及最近这类分类问题的长期短期内存(LSTM)等深层次学习技术的绩效,已经进行了深入调查。最近,许多研究侧重于将革命神经网络(CNN)应用于时间序列问题,包括分类,尽管还没有结果预测。本文的目的是缩小这一差距,将CNN与LSTMs比较。注意是另一种技术,它与LSTMS相结合,在时间序列分类中应用,并被纳入我们的研究中。我们的研究结果表明,所有这些神经网络在高预测能力方面都取得了令人满意的结果,提供了足够大的数据集。CNNs与LSTMs保持同步;注意机制没有为后者增加任何价值。由于CNN比LSTM两种类型运行一个数量级的速度都快,因此使用它们更为可取。所有模型在超参数方面都很稳健,在案件中都实现了最强的预测能力,通常在少数事件之后就被包括在我们的研究中。我们发现,所有这些神经网络都能够满足高超时速预测结果。我们认为CNMS的早期预测。

2
下载
关闭预览

相关内容

长短期记忆网络(LSTM)是一种用于深度学习领域的人工回归神经网络(RNN)结构。与标准的前馈神经网络不同,LSTM具有反馈连接。它不仅可以处理单个数据点(如图像),还可以处理整个数据序列(如语音或视频)。例如,LSTM适用于未分段、连接的手写识别、语音识别、网络流量或IDSs(入侵检测系统)中的异常检测等任务。
Linux导论,Introduction to Linux,96页ppt
专知会员服务
75+阅读 · 2020年7月26日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
168+阅读 · 2020年5月6日
注意力机制介绍,Attention Mechanism
专知会员服务
165+阅读 · 2019年10月13日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
将门创投
8+阅读 · 2019年7月10日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
基于LSTM-CNN组合模型的Twitter情感分析(附代码)
机器学习研究会
50+阅读 · 2018年2月21日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
Arxiv
0+阅读 · 2021年6月3日
Arxiv
4+阅读 · 2018年12月20日
Arxiv
3+阅读 · 2018年3月28日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
8+阅读 · 2019年7月10日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
基于LSTM-CNN组合模型的Twitter情感分析(附代码)
机器学习研究会
50+阅读 · 2018年2月21日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
Top
微信扫码咨询专知VIP会员