Dust extinction and stellar confusion by the Milky Way reduce the efficiency of detecting galaxies at low Galactic latitudes, creating the so-called Zone of Avoidance. This stands as a stumbling block in charting the distribution of galaxies and cosmic flow fields, and therewith our understanding of the local dynamics in the Universe (CMB dipole, convergence radius of bulk flows). For instance, ZoA galaxies are generally excluded from the whole-sky Tully-Fisher Surveys ($|b| \leq 5^\circ$) even if catalogued. We show here that by fine-tuning the near-infrared TF relation, there is no reason not to extend peculiar velocity surveys deeper into the ZoA. Accurate axial ratios ($b/a$) are crucial to both the TF sample selection and the resulting TF distances. We simulate the effect of dust extinction on the geometrical properties of galaxies. As expected, galaxies appear rounder with increasing obscuration level, even affecting existing TF samples. We derive correction models and demonstrate that we can reliably reproduce the intrinsic axial ratio from the observed value up to extinction level of about $A_J\simeq3$ mag ($A_V\sim11$ mag), we also recover a fair fraction of galaxies that otherwise would fall out of an uncorrected inclination limited galaxy sample. We present a re-calibration of the 2MTF relation in the NIR $J$, $H$, and $K_s$-bands for isophotal rather than total magnitudes, using their same calibration sample. Both TF relations exhibit similar scatter at high Galactic latitudes. However, the isophotal TF relation results in a significant improvement in the scatter for galaxies in the ZoA, and low surface brightness galaxies in general, because isophotal apertures are more robust in the face of significant stellar confusion.


翻译:银河系的尘埃和星状混乱导致银河系在低银河纬度地区探测星系的效率降低,创造了所谓的避免区。这在绘制星系和宇宙流场分布图方面是一个绊脚石块,因此我们对宇宙中当地动态(CMB dipole,散流的汇合半径)的理解非常关键。例如,即使进行了编目,ZoA星系也普遍被排除在全天空Tully-Fisher调查之外( ⁇ b ⁇ leq 5 ⁇ circ$ ) 。我们在这里表明,通过微调近红红外TF的关系,我们没有理由不将奇异的速度调查更深入到ZoA。 精确的轴比(b/a)对于TF样本的选择和由此形成的TF距离都至关重要。我们模拟尘埃对于星系的地貌特性的影响是相同的。我们所看到的是修正模型,并且可以可靠地复制其内基值值的美元的内值。

0
下载
关闭预览

相关内容

Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
160+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2018年1月31日
Arxiv
27+阅读 · 2017年12月6日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2018年1月31日
Arxiv
27+阅读 · 2017年12月6日
Top
微信扫码咨询专知VIP会员