This paper considers inference in a linear regression model with random right censoring and outliers. The number of outliers can grow with the sample size while their proportion goes to zero. The model is semiparametric and we make only very mild assumptions on the distribution of the error term, contrary to most other existing approaches in the literature. We propose to penalize the estimator proposed by Stute for censored linear regression by the l1-norm. We derive rates of convergence and establish asymptotic normality of the estimator of the regression coefficients. Our estimator has the same asymptotic variance as Stute's estimator in the censored linear model without outliers. Hence, there is no loss of efficiency as a result of robustness. Tests and confidence sets can therefore rely on the theory developed by Stute. The outlined procedure is also computationally advantageous, since it amounts to solving a convex optimization program. We also propose a second estimator which uses the proposed penalized Stute estimator as a first step to detect outliers. It has similar theoretical properties but better performance in finite samples as assessed by simulations.


翻译:本文用随机右检查和外部线条来考虑线性回归模型中的推论。 外部线人的数量可以随着抽样规模的增加而增长, 而其比例则变为零。 模型是半参数, 我们仅对错误术语的分布作出非常温和的假设, 与文献中的大多数其他现有方法相反。 我们提议惩罚Stute为l1- 诺尔姆受审查的线性回归提议的估计值。 我们得出趋同率, 并确立回归系数估计值的无症状常态。 我们的估计值与Stute在经审查的线条模型中的估计值有相同的非症状差异, 没有外线条值。 因此, 没有因稳健性而丧失效率。 因此, 测试和信任组可以依赖 Stute 开发的理论。 概述程序也具有计算优势, 因为它相当于解决一个 convex 优化程序 。 我们还提议了第二个估算器, 它将拟议的惩罚 Stute 估测算器作为检测外线条的第一步。 它具有相似的理论属性, 但通过模拟得到更好的表现。

0
下载
关闭预览

相关内容

专知会员服务
14+阅读 · 2021年5月21日
Python编程基础,121页ppt
专知会员服务
47+阅读 · 2021年1月1日
专知会员服务
15+阅读 · 2020年7月27日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
【新书】Python编程基础,669页pdf
专知会员服务
186+阅读 · 2019年10月10日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
已删除
架构文摘
3+阅读 · 2019年4月17日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Arxiv
0+阅读 · 2021年11月29日
Arxiv
0+阅读 · 2021年11月28日
Arxiv
4+阅读 · 2021年7月1日
Arxiv
9+阅读 · 2020年10月29日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
专知会员服务
14+阅读 · 2021年5月21日
Python编程基础,121页ppt
专知会员服务
47+阅读 · 2021年1月1日
专知会员服务
15+阅读 · 2020年7月27日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
【新书】Python编程基础,669页pdf
专知会员服务
186+阅读 · 2019年10月10日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
已删除
架构文摘
3+阅读 · 2019年4月17日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Top
微信扫码咨询专知VIP会员