We introduce a family of information leakage measures called maximal $(\alpha,\beta)$-leakage, parameterized by non-negative real numbers $\alpha$ and $\beta$. The measure is formalized via an operational definition involving an adversary guessing an unknown (randomized) function of the data given the released data. We obtain a simplified computable expression for the measure and show that it satisfies several basic properties such as monotonicity in $\beta$ for a fixed $\alpha$, non-negativity, data processing inequalities, and additivity over independent releases. We highlight the relevance of this family by showing that it bridges several known leakage measures, including maximal $\alpha$-leakage $(\beta=1)$, maximal leakage $(\alpha=\infty,\beta=1)$, local differential privacy [LDP] $(\alpha=\infty,\beta=\infty)$, and local Renyi differential privacy [LRDP] $(\alpha=\beta)$, thereby giving an operational interpretation to local Renyi differential privacy. We also study a conditional version of maximal $(\alpha,\beta)$-leakage on leveraging which we recover differential privacy and Renyi differential privacy. A new variant of LRDP, which we call maximal Renyi leakage, appears as a special case of maximal $(\alpha,\beta)$-leakage for $\alpha=\infty$ that smoothly tunes between maximal leakage ($\beta=1$) and LDP ($\beta=\infty$). Finally, we show that a vector form of the maximal Renyi leakage relaxes differential privacy under Gaussian and Laplacian mechanisms.


翻译:我们引入了一族泄露信息度量,称为最大$(\alpha,\beta)$-泄露,其由非负实数$\alpha$和$\beta$参数化。该度量通过操作定义形式化,涉及对释放的数据进行猜测的对手,猜测数据的未知(随机化)函数。我们得到了简化的可计算表达式,并表明它满足几个基本性质,例如$\beta$对于固定$\alpha$的单调性,非负性,数据处理不等式以及独立释放的可加性。我们通过显示它也涉及了一些已知的泄漏度量,包括最大$\alpha$-泄漏$(\beta=1)$,最大泄漏$(\alpha=\infty,\beta=1)$,局部差分隐私[LDP]$(\alpha=\infty,\beta=\infty)$和局部Renyi差分隐私[LRDP]$(\alpha=\beta)$,从而为本地Renyi差分隐私提供了操作解释。我们还研究了$(\alpha,\beta)$-最大泄漏的一个条件版本,从而恢复了差分隐私和Renyi差分隐私。一种名为最大Renyi泄漏的新变体出现为最大$(\alpha,\beta)$-泄漏的一种特殊情况,其中$\alpha=\infty$可在最大泄漏($\beta=1$)和LDP ($\beta=\infty$)之间平滑调节。最后,我们表明,最大Renyi泄漏的向量形式在高斯和拉普拉斯机制下放宽了差分隐私。

0
下载
关闭预览

相关内容

【AAAI2021】知识迁移的机器学习成员隐私保护,57页ppt
专知会员服务
26+阅读 · 2021年2月9日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
【康奈尔大学】度量数据粒度,Measuring Dataset Granularity
专知会员服务
11+阅读 · 2019年12月27日
神经网络高斯过程 (Neural Network Gaussian Process)
PaperWeekly
0+阅读 · 2022年11月8日
浅聊对比学习(Contrastive Learning)
极市平台
2+阅读 · 2022年7月26日
浅聊对比学习(Contrastive Learning)第一弹
PaperWeekly
0+阅读 · 2022年6月10日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月31日
VIP会员
相关资讯
神经网络高斯过程 (Neural Network Gaussian Process)
PaperWeekly
0+阅读 · 2022年11月8日
浅聊对比学习(Contrastive Learning)
极市平台
2+阅读 · 2022年7月26日
浅聊对比学习(Contrastive Learning)第一弹
PaperWeekly
0+阅读 · 2022年6月10日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员