Low-field T2 mapping MRI can democratize neuropediatric imaging by improving accessibility and providing quantitative biomarkers of brain development. \textbf{Purpose:} To evaluate the feasibility of high-resolution T2 mapping using a single-shot fast spin-echo (SS-FSE) sequence at 0.55~T in a healthy control cohort. \textbf{Study Type:} Prospective single-center study. \textbf{Population:} In vivo: ten healthy adults (18--43~years, 5 females/5 males). In vitro: NIST Phantom. \textbf{Field strength/sequence:} Multi-echo ultra-fast spin-echo at 0.55~T and 1.5~T. \textbf{Assessment:} Feasibility was first assessed in vitro using the NIST Phantom, comparing T2 relaxation times to spectrometer references at 0.55~T. Acquisition and T2-fitting parameters optimized in vitro were applied in vivo. Repeatability was evaluated by atlas-based analysis of white matter (WM) and cortical grey matter (GM) regions. Coefficients of variation (CoV) were computed across runs, sessions, and subjects. \textbf{Statistical Tests:} Wilcoxon signed-rank test with Bonferroni correction ($\alpha = 0.05/n_{ROI}$) assessed CoV differences. Pearson correlation coefficients quantified T2 associations. \textbf{Results:} In vitro, mono-exponential fitting under Gaussian--Rician noise yielded deviations $<12\%$ from reference values. In vivo, inter-subject CoV was 5.2\% (WM) and 17.7\% (GM), comparable to 1.5~T. Mean T2 times were 118~ms (WM) and 188~ms (GM) at 0.55~T, with a 16.5-minute acquisition. \textbf{Conclusion:} A rapid, robust high-resolution T2 mapping protocol at 0.55~T for HASTE MRI is presented, employing Gaussian noise-based fitting. We report the first normative T2 values for healthy adult brains at 0.55~T, demonstrating technical feasibility and reliability.


翻译:暂无翻译

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
11+阅读 · 2018年4月8日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员