We study the problem of continually releasing statistics of an evolving dataset under differential privacy. In the event-level setting, we show the first polynomial lower bounds on the additive error for insertions-only graph problems such as maximum matching, degree histogram and $k$-core. This is an exponential improvement on the polylogarithmic lower bounds of Fichtenberger et al.[ESA 2021] for the former two problems, and are the first continual release lower bounds for the latter. Our results run counter to the intuition that the difference between insertions-only vs fully dynamic updates causes the gap between polylogarithmic and polynomial additive error. We show that for maximum matching and $k$-core, allowing small multiplicative approximations is what brings the additive error down to polylogarithmic. Beyond graph problems, our techniques also show that polynomial additive error is unavoidable for Simultaneous Norm Estimation in the insertions-only setting. When multiplicative approximations are allowed, we circumvent this lower bound by giving the first continual mechanism with polylogarithmic additive error under $(1+ζ)$ multiplicative approximations, for $ζ>0$, for estimating all monotone symmetric norms simultaneously. In the item-level setting, we show polynomial lower bounds on the product of the multiplicative and the additive error of continual mechanisms for a large range of graph problems. To the best of our knowledge, these are the first lower bounds for any differentially private continual release mechanism with multiplicative error. To obtain this, we prove a new lower bound on the product of multiplicative and additive error for 1-Way-Marginals, from which we reduce to continual graph problems. This generalizes the lower bounds of Hardt and Talwar[STOC 2010] and Bun et al.[STOC 2014] on the additive error for mechanisms with no multiplicative error.


翻译:我们研究了在差分隐私约束下持续发布演化数据集统计量的问题。在事件级设置中,我们首次针对仅插入型图问题(如最大匹配、度直方图和$k$-核)的加性误差给出了多项式下界。这相较于Fichtenberger等人[ESA 2021]对前两个问题的多对数下界实现了指数级改进,并为后者首次建立了持续发布下界。我们的结果与以下直觉相悖:仅插入型更新与全动态更新之间的差异导致了多对数与多项式加性误差的差距。我们证明对于最大匹配和$k$-核问题,允许较小的乘性近似才是将加性误差降至多对数的关键。除图问题外,我们的技术还表明在仅插入型设置中,同步范数估计不可避免地需要多项式加性误差。当允许乘性近似时,我们通过提出首个在$(1+ζ)$乘性近似($ζ>0$)下具有多对数加性误差的持续机制,突破了该下界,实现了对所有单调对称范数的同步估计。在项目级设置中,我们针对广泛图问题的持续机制,证明了乘性误差与加性误差乘积的多项式下界。据我们所知,这是首个针对具有乘性误差的差分隐私持续发布机制的下界。为此,我们证明了1-维边际问题中乘性误差与加性误差乘积的新下界,并由此归约至持续图问题。这推广了Hardt和Talwar[STOC 2010]以及Bun等人[STOC 2014]关于无乘性误差机制加性误差的下界结果。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2020年12月14日
论文浅尝 | GMNN: Graph Markov Neural Networks
开放知识图谱
20+阅读 · 2020年2月14日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
Single-Shot Object Detection with Enriched Semantics
统计学习与视觉计算组
14+阅读 · 2018年8月29日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 11月10日
VIP会员
相关资讯
论文浅尝 | GMNN: Graph Markov Neural Networks
开放知识图谱
20+阅读 · 2020年2月14日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
Single-Shot Object Detection with Enriched Semantics
统计学习与视觉计算组
14+阅读 · 2018年8月29日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员