可解释性深度学习在材料学中的应用探索—微结构,大性能

2019 年 12 月 29 日 学术头条

现代工程应用正在推动定制有多功能特性的异质材料的需求。通常,这些性质取决于微观结构。近年来,人们一直将注意力集中在对微结构敏感的设计上。这里所说的设计就是确定能产生所需性能的定制微结构。但如何利用机器学习建立这一设计的途径尚待深入研究。


来自美国爱荷华州立大学机械工程系的Soumik Sarkar教授和Baskar Ganapathysubramanian教授等,训练了一种形态分类器,可将有机光伏形态和短路电流关联到一起。 他们测试了几种深度和宽度不同的学习框架,这些学习框架可以从给定的一组形态及其标签中学习,最后的结果发现该学习框架具有很高的准确性和F1得分。 为了区分这些同样表现良好的模型并对它们进行排序,作者使用了两个额外的附加度量。 首先是揭示习得的结构-性质关系的概括性。 他们确定了网络架构,可以用可用的数据集概括地图,并根据“将未看到的形态投射到已学习过的分布上”的能力进行量化,并做出了良好的预测。 其次是可解释性。 这是理解工程系统行为的相当重要的指标。 他们引入了一种称为DLSP(结构属性查询深度学习)的方法,用于从数据中学习结构-性能之间的构效关系。 作者认为这种方法可广泛应用于各种对微结构敏感的设计问题。

该文近期发表于npj Computational Materials 5: 95 (2019),英文标题与摘要如下。


Interpretable deep learning for guided microstructure-property explorations in photovoltaics


Balaji Sesha Sarath Pokuri, Sambuddha Ghosal, Apurva Kokate, Soumik Sarkar & Baskar Ganapathysubramanian 


The microstructure determines the photovoltaic performance of a thin film organic semiconductor film. The relationship between microstructure and performance is usually highly non-linear and expensive to evaluate, thus making microstructure optimization challenging. Here, we show a data-driven approach for mapping the microstructure to photovoltaic performance using deep convolutional neural networks. We characterize this approach in terms of two critical metrics, its generalizability (has it learnt a reasonable map?), and its intepretability (can it produce meaningful microstructure characteristics that influence its prediction?). A surrogate model that exhibits these two features of generalizability and intepretability is particularly useful for subsequent design exploration. We illustrate this by using the surrogate model for both manual exploration (that verifies known domain insight) as well as automated microstructure optimization. We envision such approaches to be widely applicable to a wide variety of microstructure-sensitive design problems.



关于npj:
《npj 计算材料学》是在线出版、完全开放获取的国际学术期刊。发表结合计算模拟与设计的材料学一流的研究成果。本刊由中国科学院上海硅酸盐研究所与英国自然出版集团(Nature Publishing Group,NPG)以伙伴关系合作出版。 
本文经授权转载自“知社学术圈”,如需转载请联系原作者。


往期精彩回顾

【NeurIPS100】NeurIPS2019 七篇获奖论文揭晓 入选论文深度分析!

清华蝉联计算机科学AI专业全球冠军,前十院校中国占四所

Nature通讯:科学家兴趣转移愈发频繁,反而对科研生涯愈发不利

点击左下角“阅读原文”可以自由获取论文PDF。


登录查看更多
1

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
深度学习目标检测方法及其主流框架综述
专知会员服务
143+阅读 · 2020年6月26日
【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
44+阅读 · 2020年5月23日
注意力机制模型最新综述
专知会员服务
260+阅读 · 2019年10月20日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
《科学》(20181012出版)一周论文导读
科学网
4+阅读 · 2018年10月14日
【推荐】深度学习情感分析综述
机器学习研究会
58+阅读 · 2018年1月26日
展望:模型驱动的深度学习
人工智能学家
12+阅读 · 2018年1月23日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
A Survey of Deep Learning for Scientific Discovery
Arxiv
29+阅读 · 2020年3月26日
Arxiv
6+阅读 · 2019年3月19日
Arxiv
19+阅读 · 2018年10月25日
VIP会员
相关VIP内容
深度学习目标检测方法及其主流框架综述
专知会员服务
143+阅读 · 2020年6月26日
【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
44+阅读 · 2020年5月23日
注意力机制模型最新综述
专知会员服务
260+阅读 · 2019年10月20日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
相关资讯
《科学》(20181012出版)一周论文导读
科学网
4+阅读 · 2018年10月14日
【推荐】深度学习情感分析综述
机器学习研究会
58+阅读 · 2018年1月26日
展望:模型驱动的深度学习
人工智能学家
12+阅读 · 2018年1月23日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Top
微信扫码咨询专知VIP会员