A doubly robust (DR) estimator is crucial in causal inference, which consists of two nuisance parameters: the conditional mean outcome and logging policy (probability of choosing an action). This paper provides a DR estimator for dependent samples obtained in adaptive experiments and introduces two related topics. First, we propose adaptive-fitting as a variant of sample-splitting for showing an asymptotically normal semiparametric estimator from dependent samples without non-Donsker nuisance estimators. Second, we report an empirical paradox that a DR estimator shows better performances than other estimators using the true logging policy instead of its estimator. While a similar phenomenon is also known for estimators with i.i.d. samples, we hypothesize that traditional explanations based on asymptotic efficiency cannot elucidate our case with dependent samples. We confirm this hypothesis through simulation studies.


翻译:双重强力估计(DR)在因果推断中至关重要,它包括两个骚扰性参数:有条件平均结果和伐木政策(选择行动的可能性),本文为在适应性实验中获得的依附样品提供了一个DR估计值,并介绍了两个相关专题。首先,我们提议将适应性调整作为样本分割的变体,以显示一个无症状正常的半参数估计值,而没有非唐斯克骚扰性估计值。第二,我们报告一个经验悖论,即DR估计值比使用真实伐木政策而不是其估计值的其他估计值显示更好的性能。虽然使用i.i.d.样本的估测者也知道类似的现象,但我们对基于无症状效率的传统解释不能用依赖性样品来解释我们的情况进行了假设。我们通过模拟研究来证实这一假设。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
76+阅读 · 2020年7月26日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
30+阅读 · 2020年4月23日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RF、GBDT、XGBoost面试级整理
数据挖掘入门与实战
17+阅读 · 2018年3月21日
RF(随机森林)、GBDT、XGBoost面试级整理
数据挖掘入门与实战
6+阅读 · 2018年2月6日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
A Robust Approach to ARMA Factor Modeling
Arxiv
0+阅读 · 2021年7月8日
Sublinear Regret for Learning POMDPs
Arxiv
0+阅读 · 2021年7月8日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
Top
微信扫码咨询专知VIP会员