ProcessGPT论文简介

GPT 是一种先进的机器学习模型,能够通过自然语言处理(NLP)生成类似人类的文本。GPT在大量文本数据上进行训练,并使用深度学习技术来学习数据中的模式和关系,使其能够生成连贯和情境适当的文本。本文提出了在需要时使用GPT技术生成新的流程模型,介绍了ProcessGPT作为一种新技术,它有潜力增强基于数据和知识的流程中的决策制定。ProcessGPT可以通过在大型业务流程数据集上对生成的预训练变换器模型进行训练来设计。然后可以在特定的流程领域对该模型进行微调,并根据上下文和用户输入来生成流程流程并做出决策。该模型可以与自然语言处理和机器学习技术结合,为流程改进提供洞见和建议。此外,该模型可以自动化重复性任务,提高流程效率,同时使知识工作者能够沟通分析结果、支持证据并做出决策。ProcessGPT可以通过提供强大的工具来增强、自动化和改进流程,彻底改变业务流程管理。最后,作者展示了如何将ProcessGPT作为一种强大的工具,用于增强数据工程师在维护大型银行组织内的数据生态系统流程方面。此场景突显了这种方法改善效率、降低成本,并通过自动化数据中心和知识密集型流程来提升业务运营质量的潜力。这些结果强调了ProcessGPT作为一种变革性技术,适用于希望改进其流程工作流程的组织。

论文链接:https://www.computer.org/csdl/proceedings-article/icws/2023/048500a731/1QzhSwZJ8qI

ProcessGPT架构简介 ProcessGPT的架构如图所示,包括流程数据空间、流程数据湖、流程知识湖、流程知识、流程知识图、Transformer模型和Process Co-pilot。

流程数据空间层指的是跨多个数据岛生成的所有与流程相关的数据,包括流程日志、流程模型孤岛、最佳实践以及在开放、私有和社交数据等各种数据岛上生成的与流程相关的数据。这些数据表现出大数据的典型特性,包括广泛的物理分布、多样的格式、非标准数据模型以及独立管理和异构语义。为了管理这些庞大且多样的与流程相关的数据,作者提出了流程数据湖层。该层利用作者先前的工作[1],对大型流程数据和元数据进行组织、索引和查询。

ProcessGPT的架构如图所示,包括流程数据空间、流程数据湖、流程知识湖、流程知识、流程知识图、Transformer模型和Process Co-pilot。
流程数据空间层指的是跨多个数据岛生成的所有与流程相关的数据,包括流程日志、流程模型孤岛、最佳实践以及在开放、私有和社交数据等各种数据岛上生成的与流程相关的数据。这些数据表现出大数据的典型特性,包括广泛的物理分布、多样的格式、非标准数据模型以及独立管理和异构语义。为了管理这些庞大且多样的与流程相关的数据,作者提出了流程数据湖层。该层利用作者先前的工作[1],对大型流程数据和元数据进行组织、索引和查询。
流程数据湖层有助于有效组织与流程相关的数据和元数据,以实现跨各种数据岛的知识高效检索、分析和共享。在将原始数据存储在流程数据湖中之后,下一步是将这些数据转化为上下文化的数据和知识。这一转化是通过使用先前工作中[2]开发的知识湖即服务方法实现的。
为了促进这一转化,提出的方法涉及创建一个流程知识湖层,该层利用策划服务来清理、整合和转换原始数据。此外,通过提取、丰富和链接信息项为这些数据增加了价值。上下文化数据在知识湖中进行预处理,形成一个称为流程知识图的大图。这个图是流程相关数据中各个实体之间关系的表示,提供了对流程知识的更完整和全面的视图。流程知识图作为后续分析的基础,实现了有效的决策和流程改进。
流程知识图是一个大型、语义丰富的图数据库,通过一组节点和边来表示信息和知识。图中的节点代表实体或概念,而边代表这些实体之间的关系。流程知识图作为上下文化流程数据、知识、任务和活动的存储库。知识图是以结构化和相互连接的方式表示和组织知识的强大工具。它使系统能够将相关概念和实体联系在一起,促进在不同领域之间的推理和推断。知识图中各个实体之间的相互连接使系统能够推理不同实体之间的关系和依赖性,从而实现更有效的决策和流程改进。知识图代表了流程管理的重大进展,并为开发智能和自适应的流程管理系统提供了基础。流程知识图不包括领域专家的最佳实践和知识。
为了弥补这一差距,利用了我们先前的工作[3]来模拟使用众包服务的学科专家的知识。这些新知识用于注释流程知识图中的节点和关系,增强其完整性和准确性。在这个阶段,知识图成为AI引擎,特别是ProcessGPT Transformer模型的综合数据源。Transformer是一种新型的神经架构,利用注意力机制将输入数据编码为强大的特征。ProcessGPT将使用Transformer-in-Transformer (TNT)模型 [4],该模型突出了在局部补丁中利用注意力的重要性,以开发性能卓越的变压器。该模型采用了GPT类似的方法,例如chatGPT和Github Co-pilot。
Process Co-pilot 利用了业务活动监控的最新进展,不断监控当前流程实例中的活动,同时可以访问knowledge worker’s persona和上下文窗口,即在生成输出序列的下一个标记时考虑的前几个标记数量。

AI@MQ简介
本文作者均来自于澳大利亚麦考瑞大学人工智能中心(AI@MQ),此中心成立于2019年,是一个致力于推动人工智能(AI)和数据科学领域的研究与应用的机构。该中心的目标是将人工智能和数据科学技术置于企业和组织的核心,重新定义他们如何创造、捕获和共享价值。AI@MQ的研究涵盖了多个领域,包括但不限于人工智能、数据科学、大数据和过程自动化。该中心的研究项目由世界级的领导者和专家领导,涵盖了从基础研究到应用开发的全范围。除了研究项目外,AI@MQ还支持数据科学实验室和大数据学会等机构,以促进学术界和工业界之间的合作与交流。AI@MQ的目标是成为全球领先的人工智能研究中心之一,为企业、组织和社会提供创新的解决方案,并在人工智能和数据科学领域取得持续的进步和影响。在2024 QS世界大学学科排名中,麦考瑞大学的数据科学与人工智能首次上榜,并获得世界排名48位的傲人成绩!
参考文献: [1] A. Beheshti, B. Benatallah, R. Nouri, V. M. Chhieng, H. Xiong, and X. Zhao, “CoreDB: a data lake service,” in CIKM. ACM, 2017, pp. 2451–2454. [2] A. Beheshti, B. Benatallah, R. Nouri, and A. Tabebordbar, “CoreKG: a knowledge lake service,” Proc. VLDB Endow., vol. 11, no. 12, pp. 1942–1945, 2018. [3] A. Beheshti, “Knowledge base 4.0: Using crowdsourcing services for mimicking the knowledge of domain experts,” in IEEE International Conference on Web Services, ICWS 2022, Barcelona, Spain, July 10-16, 2022. IEEE, 2022, pp. 425–427. [4] K. Han, A. Xiao, E. Wu, J. Guo, C. Xu, and Y. Wang, “Transformer in transformer,” Advances in Neural Information Processing Systems, vol. 34, pp. 15 908–15 919, 2021.

成为VIP会员查看完整内容
22

相关内容

【KDD2020-UCLA-微软】GPT-GNN:图神经网络的预训练
专知会员服务
61+阅读 · 2020年8月19日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
30+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
137+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
337+阅读 · 2023年3月31日
Arxiv
57+阅读 · 2023年3月26日
Arxiv
117+阅读 · 2023年3月24日
Arxiv
17+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【KDD2020-UCLA-微软】GPT-GNN:图神经网络的预训练
专知会员服务
61+阅读 · 2020年8月19日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
30+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员