基于联邦学习的推荐系统

随着互联网和移动计算等技术的发展, 人们的在线行为产生了越来越多的数据, 想要从海量数 据中挑选出用户可能喜欢的物品, 推荐系统不可或缺. 然而传统的推荐算法需要将用户数据收集到服 务端才能构建模型, 这会泄露用户隐私. 最近, 谷歌针对机器学习任务中需要收集用户数据才能进行建 模的问题, 提出了一种新的学习范式 —— 联邦学习. 联邦学习与推荐系统相结合, 使得联邦推荐算法 能够在模型构建过程中, 始终将用户数据保留在客户端本地, 从而保护了用户隐私. 本文主要对联邦学 习与推荐系统相结合的研究工作进行综述, 并从架构设计、系统的联邦化和隐私保护技术的应用 3 个 角度重点分析联邦推荐算法的研究进展. 最后, 对基于联邦学习的推荐系统可研究的方向进行展望.

引言

在当今互联网大数据的背景下, 推荐系统能够利用海量的数据解决信息过载问题, 给用户带来便 利的同时也给企业带来经济效益, 进而实现用户和企业的双赢. 许多企业将推荐系统应用在了各自的 业务场景中, 例如, 淘宝的 “猜你喜欢”、网易云音乐的 “每日推荐”、腾讯视频的 “今日热门” 等, 类似 的服务在人们日常的互联网生活中随处可见, 这些商业服务的建立离不开推荐算法.

随着通用数据保护条例 (general data protection regulation, GDPR) [1] 等隐私和数据保护法律法 规的颁布, 以及人们隐私保护意识的提高, 用户数据中的隐私安全愈发受到重视. GDPR 等法律法规 要求, 在未经用户同意的情况下, 任何组织和机构不得收集数据主体的个人数据. 然而传统的机器学 习算法在没有获取足够多的用户数据的情况下, 往往难以通过训练得到一个有效的模型. 为了解决用 户数据的隐私问题, 以及在不直接获取用户原始数据的前提下得到一个有效的模型, 谷歌 (Google) 提出了联邦学习范式[2, 3] . 联邦学习使得在模型训练的整个过程中, 用户的原始数据始终保留在用户 (客 户端) 本地, 服务端和用户之间通过共享加密的或不包含隐私信息的中间参数的方式, 进行模型训练 和参数更新, 进而在保护用户隐私的前提下构建一个有效的机器学习模型. 此外, 谷歌还将联邦学习 应用在 Gboard 产品上, 用于表情符号预测 [4] 和下一个单词的预测 [5] , 并且取得了不错的效果. Yang 等[1] 进一步将联邦学习分为横向联邦学习、纵向联邦学习和联邦迁移学习. 横向联邦学习是指在参与 联合训练的多方中, 特征重叠较多, 样本重叠较少; 纵向联邦学习是指在参与联合训练的多方中, 特征 重叠较少, 样本重叠较多; 而联邦迁移学习是指在参与联合训练的多方中, 特征重叠和样本重叠都较 少. 目前对联邦学习的研究大多是基于横向联邦学习和纵向联邦学习, 而对联邦迁移学习的研究相对 较少。

在推荐系统中, 用户的数据通常是指用户对物品的交互行为和用户的个人信息. 在传统的推荐算 法中, 为了构建一个全局的模型, 通常需要收集所有用户的原始数据并上传至服务端, 这样的做法往往 存在用户隐私泄漏的问题. 为了解决这一问题, 一些研究工作 [6, 7] 将联邦学习应用于推荐算法的设计 中, 使得用户在不上传自己的原始数据的前提下仍能得到良好的个性化服务. 近年来, 随着联邦学习技 术的发展, 对基于联邦学习的推荐算法 (以下称 “联邦推荐”) 的研究也越发受到工业界和学术界的关 注. 在 2019 年的神经信息处理系统大会 (NeurIPS) 上, 微众银行以联邦推荐为主题介绍了他们的多 个应用场景, 同时还基于自主研发的企业级联邦学习平台 FATE (federated AI technology enabler) [8] 提出了联邦矩阵分解和联邦因子分解机等算法, 引起了众多研究人员的关注. 目前, 对联邦推荐的研究 仍处于起步阶段, 大多数联邦推荐算法通过设计不同的联邦训练策略对传统的推荐模型进行联邦化, 从而保护用户的隐私, 这也是本文论述的一个重点. 值得注意的是, 联邦学习领域中的一些重要问题, 如通信成本、计算效率和激励机制等, 在联邦推荐算法的设计中还较少涉及, 但它们在模型的训练和 部署等方面有较大影响, 这也是本文关注的另一个重点.

本文主要对基于联邦学习的推荐系统的研究进行综述. 第 2 节首先简要介绍经典的和前沿的推荐 算法, 其次从模型的架构、模型的联邦化、模型的优化和隐私保护技术的应用 4 个角度介绍联邦学习 技术, 最后概述联邦推荐技术. 第 3∼5 节分别从架构设计、系统的联邦化和隐私保护技术的应用 3 个 角度重点分析基于联邦学习的推荐系统的研究进展. 第 6 节展望基于联邦学习的推荐算法的研究趋 势. 第 7 节是结束语.

2. 概述

2.1 推荐系统概述

传统的推荐方法主要包括基于内容的推荐、基于协同过滤 (collaborative filtering, CF) 的推荐和 混合推荐. 基于内容的推荐算法的核心思想是给用户推荐与其历史交互过的物品相似的物品, 它能够 解决物品的冷启动问题. 其中物品特征的提取较为关键, 只要能构建出新物品的特征描述, 该新物品就 有可能被推荐给用户. 由于推荐的物品通常是与用户交互过的物品较为相似的物品, 因此基于内容的 推荐算法难以推荐一些新颖的物品. 基于协同过滤的推荐算法的核心思想是给用户推荐与其历史偏 好相似的用户群体交互过的物品, 其主要包括基于邻域的推荐算法和基于模型的推荐算法. 其中, 基 于邻域的推荐算法主要分为两大类: 基于用户的协同过滤推荐算法 [9] 和基于物品的协同过滤推荐算 法 [10] . 矩阵分解 (matrix factorization, MF) [11] 是协同过滤推荐算法中最受欢迎的算法之一, 其以高 维的 (用户, 物品) 评分矩阵为输入, 输出一个低维的用户特征矩阵和一个低维的物品特征矩阵, 通过用户特征矩阵和物品特征矩阵的内积计算得到用户对物品的评分矩阵. 与基于内容的推荐算法相比, 基于协同过滤的推荐算法考虑了不同用户偏好之间的关系, 但存在用户和物品的冷启动问题. 混合推 荐算法将多种推荐算法以一定的方式组合起来, 以解决单一推荐算法存在的问题. 例如, 将基于内容的 推荐算法和基于协同过滤的推荐算法结合起来的混合推荐算法, 能够解决物品的冷启动问题, 同时考 虑了用户之间的偏好关系, 从而构建一个更好的推荐模型.

近年来, 随着深度学习在计算机视觉、语音识别和自然语言处理等领域的快速发展, 深度学习也成 为推荐系统领域的一项重要技术. 与传统的推荐算法相比, 基于深度学习的推荐算法表达能力更强, 能 够更好地挖掘数据的潜在特征, 获取深层次的用户和物品的特征描述. 基于深度学习的推荐算法主要 利用一些深度学习技术, 如: 自编码器[12]、受限玻尔兹曼机 (restricted Boltzmann machine, RBM)[13]、 卷积神经网络 (convolutional neural network, CNN) [14] 和循环神经网络 (recurrent neural network, RNN)[15] 等, 来构建推荐模型. AutoRec [12] 是较为简单的基于深度学习的推荐算法, 其将自编码器技 术应用到协同过滤中, 输入是某个用户对所有物品的评分构成的向量或所有用户对某个物品的评分构 成的向量, 通过一个包含单隐层的神经网络, 让输出向量尽可能逼近输入向量, 从而预测输入向量中的 缺失值, 进而实现对物品的排序和推荐. 但是 AutoRec [12] 没有很好地解决特征交叉问题, 模型的表达 能力有一定的局限. Deep crossing [16] 设计了包含 embedding 层、stacking 层、multiple residual units 层和 scoring 层的网络结构, 通过多层残差网络对特征向量进行多次特征交叉, 从而捕捉更多非线性 的特征信息. NCF (neural collaborative filtering)[17] 使用多层神经网络来代替矩阵分解中的内积操作, 使得用户特征向量和物品特征向量之间的交互更加丰富, 从而提高模型的表达能力. Wide&Deep [18] 和 Deep&Cross [19] 等通过组合不同特性的神经网络来提高模型的综合能力. DIN (deep interest network) [20] 等将注意力机制与基于深度学习的推荐算法结合, 使得模型能更好地捕捉用户的兴趣点. BERT4Rec [21] 将基于 Transformer 的双向编码器表征应用在序列推荐中, 用于捕捉用户行为序列上 下文的关系, 以此来预测用户可能会喜欢的下一物品. NGCF (neural graph collaborative filtering) [22] 将 (用户, 物品) 表示为二部图, 将图神经网络 (graph neural network, GNN) 应用到协同过滤算法中, 并对 (用户, 物品) 的高阶交互历史行为进行建模.

上述推荐算法是基于集中式架构设计的, 其中客户端 (即用户) 仅充当数据产生者和数据传输者 的角色, 而数据处理和模型构建的过程由服务端来实现. 由于客户端需要将用户的原始数据上传到服 务端, 因此存在用户隐私泄露的风险. 同时, 为了充分利用数据的价值, 挖掘更高维的潜在特征, 服务 端构建的推荐模型越来越复杂. 此外, 当用户数据增长到一定的数量级, 传统的集中式推荐系统通常 难以满足越来越高的存储成本和计算成本的要求. 分布式推荐系统将用户数据或模型参数分布在各个 数据节点或者计算节点中, 通过使用分布式计算和并行计算等技术来加快模型的训练, 从而支持更大 规模的数据的处理和更复杂的推荐模型的构建 [23] . 需要说明的是, 隐私保护不是设计分布式推荐系 统时首要关注的问题, 因而服务端通常可以收集各个节点的原始数据和模型参数.

在推荐系统的应用场景中, 可以将原始数据划分为用户个人信息、物品属性信息和用户与物品之 间的交互信息. 对用户而言, 隐私信息包括用户的个人信息 (例如, 性别、年龄和地理位置等)、用户对 物品的显式反馈 (例如, 用户对物品的评分等) 和用户对物品的隐式反馈 (例如, 用户对物品的点击、 收藏和购买等) 等. 一般认为, 同一组织内部的物品属性信息是共享的, 不属于用户的个人隐私. 而对 不同组织, 物品属性信息以及模型参数可能涉及公司的商业机密, 因此通常不能直接与其他组织共享.

2.2 联邦学习概述

联邦学习本质上是一种既联合多方又不共享各方原始数据的分布式学习框架, 在保护各个参与方数据中的隐私的前提下, 联合各个参与方共同训练, 得到一个共享的模型 [24] . 需要说明的是, 与传统 的分布式学习框架相比, 联邦学习中的各个参与方通常对自己的数据具有绝对的控制权. 因此, 服务 端在训练过程中需要满足各个参与方不同程度的隐私保护的要求. 联邦学习可按模型的架构、模型的 联邦化、模型的优化和隐私保护技术的应用 4 个角度进行分类, 见表 1 [1∼3, 25∼54] . 其中, 模型的架构 取决于不同的部署环境, 不同的架构在对模型进行联邦化时需要设计不同的训练流程. 对不同模型的 联邦化的研究是联邦学习的研究重点, 而隐私保护技术是在模型联邦化过程中需要使用的重要技术手 段. 对于联邦化后的模型, 考虑到不同的业务需求, 例如, 提高通信效率和模型性能等, 可以设计不同的模型优化策略.

2.2.1 模型的架构

通常, 在联邦学习中使用的架构可以分为客户端 – 服务端架构和去中心化架构. 如图 1 所示, 对 于客户端 – 服务端架构, 较为通用的训练流程为: (1) 服务端初始化模型参数, 并将模型参数发送给 各个客户端; (2) 客户端利用本地数据以及从服务端接收到的最新的模型参数进行训练, 并将中间参 数发送给服务端; (3) 服务端聚合中间参数, 更新全局模型, 再把模型回传给客户端; (4) 重复步骤 (2) 和 (3), 直到模型收敛. 对于去中心化架构, 较为通用的训练流程为: (1) 服务端初始化模型参数, 然后 将模型参数发送给各个客户端; (2) 客户端利用本地数据进行模型训练并更新本地的模型参数; (3) 客户端选取一些其他客户端, 发送本地的中间参数, 同时接收其他客户端的中间参数, 并更新本地的模 型; (4) 重复步骤 (2) 和 (3), 直到模型收敛. 需要说明的是, 不同组织之间的联邦应用场景, 例如, 纵向 联邦学习和联邦迁移学习, 可以看作特殊的去中心化架构. 在这些场景中, 若引入第三方服务器, 则又 可视为特殊的客户端 – 服务端架构.

客户端 – 服务端架构能够利用服务端的计算资源, 减少客户端的计算压力, 但容易发生单点故障. 同时, 对于好奇的服务端, 其可能根据客户端上传的中间参数推断客户端的隐私信息, 从而泄露客户 端的隐私. 相比客户端 – 服务端架构, 去中心化架构不使用服务端或者服务端仅提供初始化模型参数 和协助客户端之间通信的功能, 而不对模型进行更新. 去中心化架构的主要优势包括以下 3 个方面. (1) 匿名性 [55] . 在模型训练过程中, 客户端能以匿名的方式发送中间参数给其他客户端, 从而解决客 户端之间的隐私泄露问题. (2) 节省服务端的资源. 服务端仅需初始化模型参数, 将模型参数分发给各 个客户端, 不需要参与模型的更新. (3) 高可用性. 不存在单点故障, 即不会因为服务端的某一个部件 出错而导致整个联邦学习系统中止训练. 客户端 – 服务端架构和去中心化架构的相同之处在于客户端的原始数据不离开本地, 通过服务端 与客户端之间的通信或客户端与客户端之间的通信, 以发送中间参数的训练方式来得到一个共享的模 型. 在实际应用中, 考虑到不同模型的优化需求, 使用这两种架构时的训练流程会有所不同, 例如, 为 了减少通信成本, 一些基于客户端 – 服务端架构的联邦学习算法会采用在客户端多次训练后再将中间 参数上传给服务端的训练方式 [3, 36, 37, 56] . 我们将在 2.2.3 小节关于模型的优化中, 介绍一些对训练流 程进行改进的方法.

**2.3 联邦推荐系统概述 **

随着联邦学习在各个领域的应用, 对基于联邦学习的推荐系统的研究也受到了关注. 推荐系统通 常需要通过用户的历史行为来学习用户的偏好. 此外, 为了训练得到更好的推荐模型, 通常还会结合用 户的个人信息等数据. 用户的历史行为数据包括用户对物品的评分等显式反馈, 用户对物品的点击、 收藏和购买等隐式反馈, 以及用户在物品上的浏览时间等其他信息. 用户的个人信息包括用户的性别、 年龄、社交关系和地理位置等信息. 对用户而言, 这些都属于较为敏感的隐私数据, 用户通常不愿意提 供给服务端. 除此之外, 不同组织之间的数据和模型可能涉及商业机密, 通常也不能直接共享, 进而导 致组织之间的数据孤岛问题. 联邦学习和推荐系统的结合旨在保护用户隐私和商业机密的前提下, 为 用户提供精准的个性化服务.

联邦推荐系统是联邦学习领域的一个重要应用场景, 在这个场景中, 一个客户端可以是一个用户 或一个组织, 客户端需在不共享数据的前提下联合建模. 与联邦学习的分类类似, 我们将从架构设计、 系统的联邦化和隐私保护技术的应用 3 个角度, 论述基于联邦学习的推荐系统的研究进展. 我们在图 2 中展示了上述的 3 个研究角度. 需要说明的是, 对于模型的优化, 由于目前在联邦推荐系统方面的相 关工作较少, 我们将在第 6 节的展望部分进行讨论.

3 推荐系统的联邦化

推荐模型的联邦化具有一定的共性, 一个联邦推荐模型的训练框架通常适用于具有相同训练方式 的其他模型. 然而考虑到不同场景中的隐私保护级别可能不同以及不同模型参数可能带来的不同隐私 问题, 不同推荐模型在联邦化的过程中存在一定的差异. 对于模型的联邦化, 可以划分为基于协同过滤的推荐算法的联邦化、基于深度学习的推荐算法的联邦化和基于元学习的推荐算法的联邦化 3 个类别. 表 2 [6, 7, 35, 69, 71∼86] 展示了一些推荐模型的联邦化的例子及其特点.

4 推荐系统的联邦化

**最近, 十三届全国人大常委会第二十九次会议通过了《中华人民共和国数据安全法》[114] , 对企业 收集和使用公民个人信息等问题作出规制. 联邦学习通过不上传原始数据的学习范式, 结合多种隐私 计算技术, 能在相关法律法规的要求下发挥数据的价值, 因此在推荐系统的应用中受到了学术界和工 业界越来越多的关注. 然而, 目前联邦学习在推荐系统中的应用仍处于起步阶段, 在未来有很多值得 尝试和探索的研究方向. 以下总结了 3 个值得探索的研究方向.

4.1 推荐系统的联邦化

在对传统的推荐模型进行联邦化方面, 目前已有不少的研究工作, 虽然它们都将原始数据保存在 客户端本地, 但仍存在其他的隐私问题. 例如, 一些工作[6, 71] 泄露了用户的评分行为, 即用户评过哪些 物品. 以 FederatedMF [71] 为例, 服务端只要对比更新前后的物品特征向量, 就可以知道哪些物品的特 征向量被更新过, 从而知道上传该特征向量的用户对哪些物品评过分. 再者, 一些工作 [7, 69] 直接上传 物品特征向量的梯度给服务端, Chai 等 [6] 证明了连续两次上传同一个物品的梯度给服务端时, 服务 端能够反推出用户对物品的评分. 此外, 为了获取更丰富的信息, 以 SVD++ [88] , MF-MPC [115] 等算 法为例, 他们使用了一些和评分值相关的模型参数. 例如, 在 MF-MPC 中, 不同的评分值 r 都有一个 对应的模型参数 Mr i· . 当用户 u 更新物品 i 的 Mr i· 时, 会直接暴露用户 u 对物品 i 的评分值. 虽然目 前已有相关的研究, 使用如同态加密 [6, 74, 94]、虚假采样 [69, 73, 116]、差分隐私 [89] 和秘密共享 [72, 74] 等 技术, 能较好地解决这些隐私问题, 但这些技术会带来如通信成本增加、计算复杂度增大和推荐性能 下降等新的问题. 此外, 一些经典的推荐算法 (例如, PMF [65] 和 BPR [68] 等) 以 SGD 作为优化方法 时, 其每次只采样一个 (用户, 物品) 对, 然后计算用户特征向量的梯度和物品特征向量的梯度, 并用 于更新对应的用户特征向量和物品特征向量. 在联邦学习范式中, 以分布式学习的方式进行模型训练 时, 每次只采样一个 (用户, 物品) 对的训练方式会导致算法的训练效率较低. 一个提高效率的训练方 式是让客户端并行地进行模型训练 [97] , 再对上传的物品特征向量的梯度进行平均, 然而这样的做法与 非联邦版本的对应算法相比, 得到的效果往往会有所下降. 在对推荐模型进行联邦化时, 如何在训练 方式与非联邦版本等价的同时, 保证算法的训练效率, 也是联邦推荐值得关注的一个问题. 目前对于基于深度学习的推荐算法的联邦化的研究相对较少. 主要挑战在于, 客户端的存储资源 和计算能力通常无法与庞大的神经网络相匹配, 并且客户端自身的数据量有限, 难以训练出较好的深 度学习模型. DeepRec [83] 采用模型参数较少的 RNN 作为主干模型, 然而对于更大规模的神经网络, 客户端的存储资源会比较受限. Niu 等[80] 使用随机响应技术, 使得客户端能以子模型的方式来下载和 上传模型. 然而这种方式仅支持物品的特征向量能按行表示的模型, 模型的通用性有一定的限制. 将 模型参数和计算过程交给边缘设备的边缘计算 [117] , 以及从学习能力强的教师模型中提炼出参数较少 的学生模型的知识蒸馏 [118] , 是两个解决客户端资源受限的研究思路. 除此之外, 目前还没有公开发表的面向序列反馈和异构反馈建模的联邦推荐方法. 在保护隐私 的前提下, 运用序列信息和多行为等数据, 构建一个性能更好的联邦推荐模型, 也是一个值得研究的 问题.

**4.2 联邦推荐系统的优化 **

在 2.2.3 小节中介绍了 4 种适用于联邦学习的优化方法, 即模型压缩、通信策略的改进、激励机制 和客户端采样. 这些优化方法如何在联邦推荐模型中应用, 以及如何为特定的推荐模型设计更有效的 优化算法, 值得深入研究. 现有的部分研究工作或能给予一定的启发. 如 Yang 等 [119] 提出的 FCMF (federated collective matrix factorization), 针对纵向联邦推荐问题, 设计了一个有效的通信策略: 辅助 方先充分训练好物品特征矩阵, 加密后发送给目标方. 在目标方训练过程中, 只有少数的中间参数需 要回传给辅助方解密. Minto 等 [120] 发现在 FCF 框架中对物品特征向量的梯度使用本地差分隐私技 术进行处理时, 训练得到的模型性能较差. 因此, 对于每一个要上传给服务端的梯度, 他们仅对其随机 的某一维度添加噪声, 在满足差分隐私的条件下, 提高了模型的性能.

**4.3 联邦推荐场景中的隐私安全问题 **

在较早的研究工作中, 原始数据和能表征用户偏好的模型参数被视为用户的隐私. 因此, 在保留 原始数据和用户特征向量的情况下, FCF [7] 上传物品特征向量的梯度, 用于构建全局的物品特征矩 阵. 在文献 [6] 中, 研究人员证明了物品特征向量的梯度会泄露用户的评分信息. 为了解决这个问题, SharedMF[72] 使用秘密共享技术, FedMF[6] 使用同态加密技术. 然而, 在训练过程中, 仅有与用户交互 过的物品需要上传梯度, 因而在上传某个物品特征向量的梯度时, 在保护了梯度信息的情况下, 通过分 析物品特征向量的 ID, 仍能推导出用户的评分行为. 因此在已有的研究工作中, FPL [73] 和 FedRec [69] 采用虚假采样的方式, 混淆评过分的物品. 此外, 在最近的研究工作中, DeepRec [83] 认为, 一些商业数 据的收集并不违反 GDPR 等法律法规 [1] . 例如, 用户购买一个商品时, 需要在付款后将购买行为告知 服务端, 否则该订单无法完成. 因此, 这些必要的商业数据能够被服务端收集, 而其他隐私数据, 例如 在完成订单前对商品的点击、浏览等行为, 以及在完成订单后对商品的评分、评论等行为, 则不能直接 被服务端收集. 未来如何衡量联邦场景中的隐私安全问题, 并对已有工作中存在的隐私问题, 设计一 个更为有效的解决方法, 是一个非常有价值的研究问题. 除此之外, 大部分联邦场景都假设服务端和客户端是诚实且好奇的. 未来的研究工作可假设更复 杂的真实环境, 即可能存在恶意的客户端和服务端, 或者存在一些数据质量较低的客户端. 在这种环 境下, 在一个联邦推荐模型中设计一个能辨别数据源的可靠性的算法, 是一个值得研究的问题. 例如, 服务端可对上传的模型参数质量进行评估 [121] , 从而筛选出恶意的或低质量的模型参数, 也可以通过 将主成分分析技术 (principal component analysis, PCA) 和数据复杂度相结合 [122] , 使用检测托攻击算 法来解决客户端伪造虚假评分, 还可以通过客户端之间梯度的差异来检测恶意的客户端[123] . 此外, 在 去中心化的架构中通常采用匿名的方式传递参数, 这给恶意的客户端提供了攻击的机会. 例如, 攻击 者很容易通过匿名的方式, 将精心制作的参数传递给其他客户端, 以操控训练数据分布 [124] . 因此, 客 户端如何运用模型投毒防御 [124] 和对抗攻击防御 [125] 等防御手段来保护自己模型的安全性和有效性, 也是一个值得研究的问题

成为VIP会员查看完整内容
71

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
移动边缘网络中联邦学习效率优化综述
专知会员服务
44+阅读 · 2022年7月9日
「联邦学习隐私保护 」最新2022研究综述
专知会员服务
114+阅读 · 2022年4月1日
联邦学习智慧医疗综述
专知会员服务
119+阅读 · 2021年11月27日
专知会员服务
13+阅读 · 2021年9月14日
专知会员服务
54+阅读 · 2021年8月12日
专知会员服务
91+阅读 · 2021年7月23日
基于知识图谱的推荐系统研究综述
专知会员服务
321+阅读 · 2020年8月10日
专知会员服务
123+阅读 · 2020年8月7日
【中国人民大学】机器学习的隐私保护研究综述
专知会员服务
130+阅读 · 2020年3月25日
「对话推荐算法」最新2022研究综述
专知
6+阅读 · 2022年4月5日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
亚马逊最新《联邦学习》简明综述
专知
2+阅读 · 2022年2月6日
推荐系统+图神经网络,预训练技术研究进展
图与推荐
3+阅读 · 2022年1月5日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
联邦学习应用思考:需求还是方法?
THU数据派
0+阅读 · 2021年12月3日
综述 | 推荐系统里预训练模型
图与推荐
1+阅读 · 2021年11月23日
ICML'21 | 隐私保护下的图神经网络推荐系统
图与推荐
2+阅读 · 2021年11月4日
一文梳理联邦学习推荐系统研究进展
机器学习与推荐算法
4+阅读 · 2021年9月13日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2008年12月31日
Generalization-Memorization Machines
Arxiv
0+阅读 · 2022年7月8日
Arxiv
0+阅读 · 2022年7月8日
Arxiv
0+阅读 · 2022年7月6日
VIP会员
相关VIP内容
移动边缘网络中联邦学习效率优化综述
专知会员服务
44+阅读 · 2022年7月9日
「联邦学习隐私保护 」最新2022研究综述
专知会员服务
114+阅读 · 2022年4月1日
联邦学习智慧医疗综述
专知会员服务
119+阅读 · 2021年11月27日
专知会员服务
13+阅读 · 2021年9月14日
专知会员服务
54+阅读 · 2021年8月12日
专知会员服务
91+阅读 · 2021年7月23日
基于知识图谱的推荐系统研究综述
专知会员服务
321+阅读 · 2020年8月10日
专知会员服务
123+阅读 · 2020年8月7日
【中国人民大学】机器学习的隐私保护研究综述
专知会员服务
130+阅读 · 2020年3月25日
相关资讯
「对话推荐算法」最新2022研究综述
专知
6+阅读 · 2022年4月5日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
亚马逊最新《联邦学习》简明综述
专知
2+阅读 · 2022年2月6日
推荐系统+图神经网络,预训练技术研究进展
图与推荐
3+阅读 · 2022年1月5日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
联邦学习应用思考:需求还是方法?
THU数据派
0+阅读 · 2021年12月3日
综述 | 推荐系统里预训练模型
图与推荐
1+阅读 · 2021年11月23日
ICML'21 | 隐私保护下的图神经网络推荐系统
图与推荐
2+阅读 · 2021年11月4日
一文梳理联邦学习推荐系统研究进展
机器学习与推荐算法
4+阅读 · 2021年9月13日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员