In this paper, we consider the problem of estimating the delay-Doppler (DD) domain input-output (I/O) relation in Zak-OTFS modulation, which is needed for signal detection. Two approaches, namely, model-dependent and model-free approaches, can be employed for this purpose. The model-dependent approach requires explicit estimation of the physical channel parameters (path delays, Dopplers, and gains) to obtain the I/O relation. Such an explicit estimation is not required in the model-free approach, where the I/O relation can be estimated by reading off the samples in the fundamental DD period of the received pilot frame. Model-free approach has the advantage of acquiring fractional DD channels with simplicity. However, the read-off in the model-free approach provides an estimate of the effective channel only over a limited region in the DD plane but it does not provide an estimate for the region outside, and this can affect the estimation performance depending on the pulse shaping characteristics of the DD pulse shaping filter used. A poorly localized DD pulse shape leads to an increased degradation in performance. Motivated by this, in this paper, we propose a novel, yet simple, I/O relation estimation scheme that alleviates the above issue in the model-free approach. We achieve this by obtaining a coarse estimate of the effective channel outside the model-free estimation region using a novel model-dependent scheme and using this estimate along with the model-free estimate to obtain an improved estimate of the overall I/O relation. We devise the proposed estimation scheme for both exclusive and embedded pilot frames. Our simulation results using Vehicular-A, TDL-A and TDL-C channel models with fractional DDs show that the proposed hybrid estimation approach achieves superior performance compared to the pure model-free approach.


翻译:暂无翻译

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员