项目名称: 典型代谢物分子动力学对其结构依赖性的固体NMR研究

项目编号: No.20903115

项目类型: 青年科学基金项目

立项/批准年度: 2010

项目学科: 生物科学

项目作者: 张利民

作者单位: 中国科学院武汉物理与数学研究所

项目金额: 20万元

中文摘要: 生物代谢物分子动力学性质和相互作用与其结构的关系等基础数据比较缺乏。本项目拟利用固体NMR波谱技术,通过弛豫时间和化学位移张量测量等方法研究甲胺类与羟基羧酸和氨基羧酸类等两类典型代谢物分子动力学性质与其结构的关系,旨在探索系列代谢物的分子动力学性质对其结构依赖性的规律,为认识生物代谢物的性质和功能提供基础数据。人们在研究生物代谢物的时候,主要关注代谢物各组分的相对含量,针对分子动力学性质与其结构的关系研究很少,而这些基础数据对于了解代谢物的功能具有很重要的科学意义。为此,我们拟针对上述两类典型代谢物,研究其分子动力学性质与结构的关系,从而回答"固体代谢物分子动力学性质是什么","分子内或分子间有什么相互作用","系列代谢物的分子动力学性质与其结构的关系有什么规律"等问题。研究结果将为理解代谢物性质和功能与其结构的关系提供分子依据,为进一步研究生物复杂体系奠定基础和积累经验。

中文关键词: 生物代谢物;固体核磁共振;分子动力学;结构依赖性;相互作用

英文摘要:

英文关键词: metabolites;solid state NMR;molecular dynamics;structure dependent;interaction

成为VIP会员查看完整内容
0

相关内容

AAAI 2022 | ProtGNN:自解释图神经网络
专知会员服务
39+阅读 · 2022年2月28日
ICLR 2022|化学反应感知的分子表示学习
专知会员服务
19+阅读 · 2022年2月10日
【Jon Paul Janet】机器学习化学应用,153页ppt
专知会员服务
43+阅读 · 2021年12月5日
专知会员服务
28+阅读 · 2021年8月27日
专知会员服务
24+阅读 · 2021年8月22日
「基于GNN的图分类研究」最新2022综述
图与推荐
7+阅读 · 2022年2月14日
AI从底物和酶的结构中预测米氏常数,量化酶活性
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月19日
Dynamic Network Adaptation at Inference
Arxiv
0+阅读 · 2022年4月18日
Arxiv
37+阅读 · 2021年9月28日
Do RNN and LSTM have Long Memory?
Arxiv
19+阅读 · 2020年6月10日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
小贴士
相关主题
相关VIP内容
AAAI 2022 | ProtGNN:自解释图神经网络
专知会员服务
39+阅读 · 2022年2月28日
ICLR 2022|化学反应感知的分子表示学习
专知会员服务
19+阅读 · 2022年2月10日
【Jon Paul Janet】机器学习化学应用,153页ppt
专知会员服务
43+阅读 · 2021年12月5日
专知会员服务
28+阅读 · 2021年8月27日
专知会员服务
24+阅读 · 2021年8月22日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月19日
Dynamic Network Adaptation at Inference
Arxiv
0+阅读 · 2022年4月18日
Arxiv
37+阅读 · 2021年9月28日
Do RNN and LSTM have Long Memory?
Arxiv
19+阅读 · 2020年6月10日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
微信扫码咨询专知VIP会员