基于异质图神经网络的未知恶意程序检测

2020 年 10 月 8 日 PaperWeekly
基于异质图神经网络的未知恶意程序检测


©PaperWeekly 原创 · 作者|张安琪
学校|东华大学硕士生
研究方向|隐私保护、Security




论文标题:

Heterogeneous Graph Matching Networks for Unknown Malware Detection


论文链接:

https://www.ijcai.org/Proceedings/2019/522

 

 

引言


信息系统中存在大量的恶意软件/程序攻击,恶意软件/程序检测作为抵御攻击的第一道防线,主要使用两种方法:基于签名的方法(signature-based)和基于行为的方法(behavior-based)。但均用于检测已知的恶意软件,并且易于逃避技术。

此外,signature-based 很难抵御零时差攻击,behavior-based 会导致培训成本过高。综上,设计一种有效的数据驱动方法来检测未知恶意程序,是急需解决的问题。
 
检测未知恶意程序主要存在以下四个挑战:

1. 系统实体之间具有非线性和分层异构关系。 程序执行的操作具有非线性和层次结构上的异构依赖性,忽略这些依赖关系的简单方法仍可能产生较高的误报率。

2. 两个程序之间缺乏距离/相似性度量。 在实际的计算机系统中,给定两个程序,具有与之相关的数千个系统事件,根据分类的事件数据来测量它们的距离/相似度不是一项简单的任务。

3. 指数级别的事件空间。 信息系统需要处理大量的系统事件数据(通常每主机每秒处理超过 10,000 个事件)。

4. 程序别名的问题。 同一程序的不同版本或更新,具有不同的签名,并且也会具有不同的执行名称。因此,保留程序 ID 白名单这种简单方法存在问题。

 

为了解决上述挑战,作者提出了 MatchGNet,通过图神经网络来学习程序表示以及相似性度量。总的来说,本文贡献如下:

  • 计了一个 IGM 模型,来捕获不同对系统实体之间的异构交互/依赖关系。

  • 为了从构造的异质 IGM 中学习程序表示,作者提出了一种分层注意力图神经编码器。

  • 最后,提出了一种相似性学习模型,通过孪生神经网络训练参数,并在未知程序与现有良性程序之间进行相似性评分。MatchGNet 最终可以通过相似性匹配来识别出一个行为表示与现有良性程序明显不同的未知恶意程序。

  • 作者在真实的系统来源数据上进行了大量充分的实验,以评估模型的性能。结果表明,MatchGNet 可以准确检测恶意程序。此外,作者还用 MatchGNet 来检测真实的恶意软件攻击。结果表明,它可以将最新攻击技术的误报率降低 50%,同时保持零的误报率。

 


模型介绍

本文提出了一个异质图匹配网络框架 MatchGNet,如下图所示,它具有三个关键模块:不变图建模(IGM),分层注意力图神经编码器(HAGNE),以及相似性学习(SL)。



2.1 模块1:IGM

作者将系统事件数据建模为不同系统实体(例如,进程、文件和 Internet 套接字)之间的异质图。每个目标程序均可以对应一个异质图 G =(V,E),其中 V 表示一组节点,每个节点都有三种可能的类型:进程(P),文件(F)和 INET Socket(I),即 V = P∪F∪I。E 表示源实体 和目标实体 之间具有关系 r 的一组边

作者考虑三种类型的关系:(1)一个进程派生另一个进程(P→P),(2)一个进程访问一个文件(P→F),(3)一个进程连接到 Internet 套接字(P→I)。每个图都对应着一个邻接矩阵 A。通过模块 1 可以获得一个全局程序关系图。
 
2.2 模块2:分层注意力图神经编码器

模块 1 构造的 IGM 是异质图,图中具有多种类型的实体和关系。因此,很难直接应用传统的同构图神经网络来学习图表示。为解决此问题,本文提出了一种分层注意力图神经编码器(HAGNE),通过考虑节点级别,层级别和路径级别上下文的重要性,通过嵌入注意力机制来学习程序表示。
 
HAGNE 包括四个步骤:

B1:具有异质意识的上下文搜索。在元路径的指导下找到与路径相关的邻居集。

B2:节点级别注意力神经聚合器。基于随机游走的得分,选择性地聚合每个与路径相关的邻居集中的实体,来生成节点嵌入。

B3:层级别密集连接神经聚合器。将不同层生成的节点嵌入,聚合为密集连接的节点嵌入。

B4:路径级别注意力神经聚合器。以学习不同元路径下的注意力权重。

 

B1:具有异质意识的上下文搜索

本文提出了一种基于元路径的上下文搜索。元路径是异构图中通过一系列关系连接不同实体类型的路径。在计算机系统中,元路径可以是:一个进程派生另一个进程(P→P),访问同一文件的两个进程(P←F→P),或者打开同一 Internet 套接字的两个进程(P←I→ P),均定义两个程序之间的唯一关系。

异质图 G 的一组元路径为 ,其中 代表两个程序之间的一个特定的多跳关系。For ,定义节点 v 的与路径相关的邻居集为



其中 u 是节点 v 通过元路径 可到达的邻居节点。

B2:节点级别注意力神经聚合器

由于不同的邻居节点可能会对目标节点产生不同的影响,因此,平等地对待所有邻居是不合理的。为了解决这个问题,本文提出了一个节点级别注意力神经聚合器,来计算 中每个节点的注意力权重。

该模块基于重启随机游走算法(RWR),将 RWR 扩展到了异构图中,Walker 从目标节点 v 开始,每一步,它移动到 中的一个相邻节点。随机游走结束后,每个被访问过的邻居都会得到相应的访问计数,对其计算 L1 归一化,并以此作为该节点的注意力权重。
 
具体来说:对于节点 v 的邻居集 ,其注意力权重为

其中 的对应权重。由此,程序表示可以通过一个神经聚合函数 以如下方式计算:



其中, 代表层的索引值, 是节点 v 在元路径 下,第 k 层的特征向量, 是可训练参数,用于量化前一层表示和聚合上下文表示之间的权衡。获取聚合后的节点表示后,应用多层感知器(MLP)将其转换为隐藏非线性空间。

 

B3:层级别密集连接神经聚合器

作者提出的层级聚合器利用所有中间表示,每个中间表示都捕获一个子图结构。所有中间表示都以级联的方式聚合,然后连接一个 MLP,这样生成的嵌入可以自适应地选择不同的子图结构。

层级密集连接聚合器 表示如下:



其中 [·;·] 代表特征串联运算。

 

B4:路径级别注意力神经聚合器

作者提出了一种路径级别注意力神经聚合器,利用其学习路径的重要性并融合多个语义下的节点表示。

已知对应于元路径 的节点表示 ,则路径级别注意力权重如下:



其中 是对应于目标元路径 的节点表示, 是对应于另一条元路径 的节点表示。b 是一个可训练注意力向量, 是一个可训练权重矩阵,可以将输入特征映射到隐藏空间中。

作者使用前馈神经网络,用来计算一个路径相关的邻居集与其他路径相关的邻居集之间的相关性。再通过 Softmax 函数对其进行归一化处理。最终,所有元路径的联合表示如下:

 
2.3 模块3:相似性学习

该模块是基于孪生神经网络来训练分层注意力图神经编码器(HAGNE)参数的相似性学习模型。

每个 HAGNE 均以程序图 snapshot 作为输入,并输出相应的图嵌入 。然后,使用神经网络融合两个嵌入。最终输出两个程序嵌入的相似性分数。在训练期间,会收集 P 对程序图 snapshot ,以及相应的 ground truth 配对信息

如果一对 snapshot 属于同一程序,则 ground truth 标签为 ,否则标签为 。对于每对 snapshot,使用余弦评分函数来测量两个程序嵌入的相似度,相似性学习的输出定义如下:



相应地,目标函数可以表示为:



作者使用 Adam 优化器优化此目标。
 
综上,在执行未知恶意软件检测时,给定一个未知程序的 snapshot,我们首先构造其对应的程序 IGM,然后通过 HAGNE 生成程序嵌入。之后,计算未知程序与数据库中存在的程序之间的余弦距离。如果现有程序具有由多个 snapshots 生成的多个嵌入,则仅报告与未知程序相似度评分最高的那个。

最后,对所有相似度得分进行排名。如果与所有现有程序之间的最高相似性得分低于阈值,则会触发警报。否则,将报告前 k 个最相似的程序。


实验结果

本文在真实的企业网络数据集上做了大量充分的实验(包括虚假程序检测,未知程序检测,恶意攻击检测)来验证模型的有效性。同时对比了 LR、SVM、MLP、GCN、GraphSage 这些现有的方法。



由表1、表2的 ACC 可以看出,在捕获所有虚假程序的同时,MatchGNet 的误报率要低于所有其他模型。这验证了不变图结构和图神经网络模型的有效性。也证明了使用注意力图神经网络模型可以更好地捕获程序的语义级别特征,并可能产生较少的误报。

作者还进行了超参数选择实验,结果表明,MatchGNet 具有 3 层和 500 个神经元时,它将达到最大的 AUC。作者将得到的最佳超参数用作后续实验。
 
此外,为了评估 MatchGNet 的有用性,作者将其应用于检测企业环境中的实际恶意软件攻击。结果表明,虽然 MatchGNet 和 baseline 均捕获了全部的真实警报,但在同样情况下,MatchGNet 可以减少近 50% 的误报。这意味着可以大大节省大型企业中网络分析师的时间。



总结


本文作者提出的 MatchGNet,将异质图神经网络应用在了未知恶意程序检测上。具体来说,把程序的执行行为建模为异质不变图,引入注意力机制,考虑不同节点、不同层、不同元路径的权重,以此学习图表示,进行相似性评分,区分良性程序和恶意程序。
 

更多阅读


 


#投 稿 通 道#

 让你的论文被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。


📝 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向) 

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接 

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志


📬 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site 

• 所有文章配图,请单独在附件中发送 

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。



登录查看更多
0

相关内容

题目: 解决基于图神经网络的会话推荐存在的信息损失问题

会议: KDD 2020

论文地址: https://dl.acm.org/doi/pdf/10.1145/3394486.3403170

推荐理由: 这篇论文提出了目前在使用图神经网络方法来解决基于会话的推荐问题时所存在的两个信息缺失问题并建立一个没有信息丢失问题的模型,在三个公共数据集上优于最先进的模型。

在许多在线服务中,用户的行为自然是按时间排序的。为了预测用户未来的行为,下一项(next-item)推荐系统通过从用户的历史行为中挖掘序列模式来学习用户的偏好。基于会话的推荐是下一项推荐的特殊情况。与一般的下一项推荐系统使用固定数量的前n项来预测下一项不同,基于会话的推荐系统将用户的操作分组为互不关联的会话,只使用当前会话中的项目来进行推荐。其中会话是在时间上接近的一组项目。基于会话的推荐的思想来自于这样一种观察,即会话内依赖项对下一项的影响比会话间依赖项更大。因此,一般的下一项推荐系统可能存在合并不相关会话和提取不完整会话的问题。而基于会话的推荐系统则不存在这样的问题,因此可以做出更准确的推荐,并被部署在许多在线服务中。

成为VIP会员查看完整内容
0
20

主题: Laplacian Change Point Detection for Dynamic Graphs

摘要: 动态图和时间图是丰富的数据结构,用于对实体之间的复杂关系进行建模,尤其是时间图的异常检测是现实世界中至关重要的应用,例如网络系统中的入侵识别,生态系统扰动的检测和流行病的检测。在本文中,我们专注于动态图的变化点检测,并解决与该问题相关的两个主要挑战:I)如何跨时间比较图快照,II)如何捕获时间依存关系。为了解决上述挑战,我们提出了拉普拉斯异常检测(LAD),它使用每个快照上图结构的拉普拉斯矩阵的频谱来获得低维嵌入。 LAD通过应用两个滑动窗口显式地对短期和长期依赖性进行建模。在合成实验中,LAD的性能优于最新方法。我们还将在三个真实的动态网络上评估我们的方法:UCI消息网络,美国参议院共同赞助网络和加拿大法案投票网络。在所有三个数据集中,我们证明了我们的方法可以根据重大的现实事件更有效地识别异常时间点。

成为VIP会员查看完整内容
0
20
小贴士
相关资讯
HAN:基于双层注意力机制的异质图深度神经网络
PaperWeekly
28+阅读 · 2019年4月23日
基于Web页面验证码机制漏洞的检测
FreeBuf
5+阅读 · 2019年3月15日
suricata下的挖矿行为检测
FreeBuf
6+阅读 · 2019年2月7日
打包看——2018安全与隐私保护论文
计算机研究与发展
5+阅读 · 2019年1月8日
网络表示学习介绍
人工智能前沿讲习班
15+阅读 · 2018年11月26日
基于样本选择的安全图半监督学习方法
TensorFlow神经网络教程
Python程序员
3+阅读 · 2017年12月4日
干货|用机器学习检测异常点击流
全球人工智能
5+阅读 · 2017年7月30日
相关论文
Pietro Spadaccino,Francesca Cuomo
0+阅读 · 2020年12月2日
Angelo Garofalo,Giuseppe Tagliavini,Francesco Conti,Luca Benini,Davide Rossi
0+阅读 · 2020年11月29日
Ivo Sluganovic,Enis Ulqinaku,Aritra Dhar,Daniele Lain,Srdjan Capkun,Ivan Martinovic
0+阅读 · 2020年11月27日
Jointly Modeling Aspect and Sentiment with Dynamic Heterogeneous Graph Neural Networks
Shu Liu,Wei Li,Yunfang Wu,Qi Su,Xu Sun
8+阅读 · 2020年4月14日
Wenqi Fan,Yao Ma,Qing Li,Yuan He,Eric Zhao,Jiliang Tang,Dawei Yin
12+阅读 · 2019年11月23日
Zequn Sun,Chengming Wang,Wei Hu,Muhao Chen,Jian Dai,Wei Zhang,Yuzhong Qu
13+阅读 · 2019年11月20日
Chen Zhang,Qiuchi Li,Dawei Song
10+阅读 · 2019年9月8日
Xiang Wang,Xiangnan He,Meng Wang,Fuli Feng,Tat-Seng Chua
7+阅读 · 2019年5月20日
Yao Ma,Ziyi Guo,Zhaochun Ren,Eric Zhao,Jiliang Tang,Dawei Yin
15+阅读 · 2018年10月24日
Wei Xue,Tao Li
12+阅读 · 2018年5月18日
Top