基于协同过滤(CF)的潜在因素模型(LFM),如矩阵分解(MF)和深度CF方法,由于其良好的性能和推荐精度,在现代推荐系统(RS)中得到了广泛的应用。尽管近年来取得了巨大的成功,但事实表明,这些方法易受对抗性例子的影响,即,这是一种微妙但非随机的扰动,旨在迫使推荐模型产生错误的输出。这种行为的主要原因是,用于LFM训练的用户交互数据可能会受到恶意活动或用户误操作的污染,从而导致不可预测的自然噪声和危害推荐结果。另一方面,研究表明,这些最初设想用于攻击机器学习应用程序的系统可以成功地用于增强它们对攻击的鲁棒性,以及训练更精确的推荐引擎。在这方面,本调查的目标有两方面:(i)介绍关于AML-RS的最新进展,以保障AML-RS的安全性。(ii)展示了AML在生成对抗网络(GANs)中的另一个成功应用,生成对抗网络(GANs)使用了AML学习的核心概念(即用于生成应用程序。在这项综述中,我们提供了一个详尽的文献回顾60篇文章发表在主要的RS和ML杂志和会议。这篇综述为RS社区提供了参考,研究RS和推荐模型的安全性,利用生成模型来提高它们的质量。