数据增强是通过转换为机器学习人工创建训练数据,是机器学习学科中一个广泛研究的研究领域。虽然它对于提高模型的泛化能力很有用,但它也可以解决许多其他挑战和问题,从克服有限数量的训练数据到规范目标到限制数据量用于保护隐私。基于对数据增强的目标和应用的精确描述以及现有的分类法作品,该调查涉及用于文本分类的数据增强方法,旨在实现简洁和研究人员和从业人员的综合概述。根据分类法,我们将100多种方法分为12不同的分组,并提供最先进的参考资料,阐述哪些方法非常有前途。最后,研究给出了可能构成未来工作基石的观点。

https://www.zhuanzhi.ai/paper/6a3ab7686edb4fbbc9b7fe15b7a349a4

成为VIP会员查看完整内容
0
36

相关内容

文本分类(Text Classification)任务是根据给定文档的内容或主题,自动分配预先定义的类别标签。

为了追求精度,深度学习模型框架的结构越来越复杂,网络越来越深。参数量的增加意味着训练模型需要更多的数据。然而人工标注数据的成本是高昂的,且受客观原因所限,实际应用时可能难以获得特定领域的数据,数据不足问题非常常见。数据增强通过人为地生成新的数据增加数据量来缓解这一问题。数据增强方法在计算机视觉领域大放异彩,让人们开始关注类似方法能否应用在序列数据上。除了翻转、裁剪等在时间域进行增强的方法外,也描述了在频率域实现数据增强的方法;除了人们基于经验或知识而设计的方法以外,对一系列基于GAN的通过机器学习模型自动生成数据的方法也进行了详细的论述。介绍了应用在自然语言文本、音频信号和时间序列等多种序列数据上的数据增强方法,亦有涉及它们在医疗诊断、情绪判断等问题上的表现。尽管数据类型不同,但总结了应用在这些类型上的数据增强方法背后的相似的设计思路。以这一思路为线索,梳理应用在各类序列数据类型上的多种数据增强方法,并进行了一定的讨论和展望。

http://fcst.ceaj.org/CN/abstract/abstract2790.shtml

成为VIP会员查看完整内容
0
16

我们研究事实核查问题,它的目的是确定一个给定的主张的真实性。具体来说,我们关注的是事实提取和验证(FEVER)及其伴随数据集的任务。该任务由从Wikipedia检索相关文档(和句子)以及验证文档中的信息是否支持或驳斥给定的声明的子任务组成。这项任务至关重要,可以成为假新闻检测和医疗索赔核实等应用程序的基石。在本文中,我们旨在通过结构化和全面的方式呈现文献来更好地理解这项任务的挑战。此外,我们通过分析不同方法的技术视角和讨论了在FEVER数据集上的性能结果来描述所提出的方法。FEVER数据集是在事实提取和验证任务上研究最充分、结构最正式的数据集。我们还进行了迄今为止最大的实验研究,以确定有益的损失功能的句子检索成分。分析表明,对否定句进行采样对于提高性能和降低计算复杂度具有重要意义。最后,我们描述了有待解决的问题和未来的挑战,并对未来的研究提出了展望。

https://arxiv.org/abs/2010.03001

成为VIP会员查看完整内容
0
12

深度学习在实践中的显著成功,从理论的角度揭示了一些重大的惊喜。特别是,简单的梯度方法很容易找到非凸优化问题的接近最优的解决方案,尽管在没有任何明确的努力控制模型复杂性的情况下,这些方法提供了近乎完美的训练数据,这些方法显示了优秀的预测精度。我们推测这些现象背后有特定的原理: 过度参数化允许梯度方法找到插值解,这些方法隐含地施加正则化,过度参数化导致良性过拟合,也就是说,尽管过拟合训练数据,但仍能准确预测。在这篇文章中,我们调查了统计学习理论的最新进展,它提供了在更简单的设置中说明这些原则的例子。我们首先回顾经典的一致收敛结果以及为什么它们不能解释深度学习方法的行为方面。我们在简单的设置中给出隐式正则化的例子,在这些例子中,梯度方法可以得到完美匹配训练数据的最小范数函数。然后我们回顾显示良性过拟合的预测方法,关注二次损失的回归问题。对于这些方法,我们可以将预测规则分解为一个用于预测的简单组件和一个用于过拟合的尖状组件,但在良好的设置下,不会损害预测精度。我们特别关注神经网络的线性区域,其中网络可以用一个线性模型来近似。在这种情况下,我们证明了梯度流的成功,并考虑了双层网络的良性过拟合,给出了精确的渐近分析,精确地证明了过参数化的影响。最后,我们强调了在将这些见解扩展到现实的深度学习设置中出现的关键挑战。

https://www.zhuanzhi.ai/paper/324cdbb68665c1675a05bc147210d8c8

成为VIP会员查看完整内容
0
39

【导读】2020注定是写入到历史的一年,新冠变成主题词。在2019年机器学习领域继续快速发展,深度学习理论、对比学习、自监督学习、元学习、持续学习、小样本学习等取得很多进展。在此,专知小编整理这一年这些研究热点主题的综述进展,共十篇,了解当下,方能向前。

1、Recent advances in deep learning theory(深度学习理论)

陶大程院士等最新《深度学习理论进展》综述论文,41页pdf255篇文献阐述六大方面进展

作者:Fengxiang He,Dacheng Tao

摘要:深度学习通常被描述为一个实验驱动的领域,并不断受到缺乏理论基础的批评。这个问题已经部分地被大量的文献解决了,这些文献至今没有被很好地组织起来。本文对深度学习理论的最新进展进行了综述和整理。文献可分为六类: (1)基于模型复杂度和容量的深度学习泛化; (2)用于建模随机梯度下降及其变量的随机微分方程及其动力学系统,其特征是深度学习的优化和泛化,部分受到贝叶斯推理启发; (3)驱动动力系统轨迹的损失的几何结构; (4)深度神经网络的过参数化从积极和消极两个方面的作用; (5)网络架构中几种特殊结构的理论基础; (6)对伦理和安全及其与泛化性的关系的日益关注。

网址: https://www.zhuanzhi.ai/paper/b5ac0f259b59817b890b6c253123ee84

2、Learning from Very Few Samples: A Survey(少样本学习)

清华大学张长水等最新《少样本学习FSL》2020综述论文,30页pdf414篇参考文献

作者:Jiang Lu,Pinghua Gong,Jieping Ye,Changshui Zhang

摘要:少样本学习(FSL)在机器学习领域具有重要意义和挑战性。成功地从很少的样本中学习和归纳的能力是区分人工智能和人类智能的一个明显的界限,因为人类可以很容易地从一个或几个例子中建立他们对新颖性的认知,而机器学习算法通常需要数百或数千个监督样本来保证泛化能力。尽管FSL的悠久历史可以追溯到21世纪初,近年来随着深度学习技术的蓬勃发展也引起了广泛关注,但迄今为止,有关FSL的调研或评论还很少。在此背景下,我们广泛回顾了2000年至2019年FSL的200多篇论文,为FSL提供了及时而全面的调研。在本综述中,我们回顾了FSL的发展历史和目前的进展,原则上将FSL方法分为基于生成模型和基于判别模型的两大类,并特别强调了基于元学习的FSL方法。我们还总结了FSL中最近出现的几个扩展主题,并回顾了这些主题的最新进展。此外,我们重点介绍了FSL在计算机视觉、自然语言处理、音频和语音、强化学习和机器人、数据分析等领域的重要应用。最后,我们对调查进行了总结,并对未来的发展趋势进行了讨论,希望对后续研究提供指导和见解。

网址:

https://www.zhuanzhi.ai/paper/ffc99a53aeb6629e21b9a42db76b9dd1

3、A Survey on Knowledge Graphs: Representation, Acquisition and Applications(知识图谱研究综述论文)

最新!知识图谱研究综述论文: 表示学习、知识获取与应用,25页pdf详述Knowledge Graphs技术趋势

作者:Shaoxiong Ji, Shirui Pan, Erik Cambria, Pekka Marttinen, Philip S. Yu

摘要:人类知识提供了对世界的认知理解。表征实体间结构关系的知识图谱已经成为认知和人类智能研究的一个日益流行的方向。在本次综述论文中,我们对知识图谱进行了全面的综述,涵盖了知识图谱表示学习、知识获取与补全、时序知识图谱、知识感知应用等方面的研究课题,并总结了最近的突破和未来的研究方向。我们提出对这些主题进行全视角分类和新的分类法。知识图谱嵌入从表示空间、得分函数、编码模型和辅助信息四个方面进行组织。对知识获取,特别是知识图谱的补全、嵌入方法、路径推理和逻辑规则推理进行了综述。我们进一步探讨了几个新兴的主题,包括元关系学习、常识推理和时序知识图谱。为了方便未来对知识图的研究,我们还提供了不同任务的数据集和开源库的集合。最后,我们对几个有前景的研究方向进行了深入的展望。

网址:

https://www.zhuanzhi.ai/paper/00ef54883a71e52b240e26b2a6d25255

4、A Review on Generative Adversarial Networks: Algorithms, Theory, and Applications(生成式对抗网络综述论文)

密歇根大学28页最新《GANs生成式对抗网络综述:算法、理论与应用》最新论文,带你全面了解GAN技术趋势

作者:Jie Gui,Zhenan Sun,Yonggang Wen,Dacheng Tao,Jieping Ye

摘要:生成对抗网络(GANs)是最近的热门研究主题。自2014年以来,人们对GAN进行了广泛的研究,并且提出了许多算法。但是,很少有全面的研究来解释不同GANs变体之间的联系以及它们是如何演变的。在本文中,我们尝试从算法,理论和应用的角度对各种GANs方法进行叙述。首先,详细介绍了大多数GANs算法的动机,数学表示形式和结构。此外,GANs已与其他机器学习算法结合用于特定应用,例如半监督学习,迁移学习和强化学习。本文比较了这些GANs方法的共性和差异。其次,研究了与GANs相关的理论问题。第三,说明了GANs在图像处理和计算机视觉,自然语言处理,音乐,语音和音频,医学领域以及数据科学中的典型应用。最后,指出了GANs未来的开放性研究问题。

网址:

https://www.zhuanzhi.ai/paper/8b531e33d7c934d81892a029bc080a9c

5、A Survey on Causal Inference(因果推断综述论文)

最新「因果推断Causal Inference」综述论文38页pdf,阿里巴巴、Buffalo、Georgia、Virginia

作者:Liuyi Yao,Zhixuan Chu,Sheng Li,Yaliang Li,Jing Gao,Aidong Zhang

摘要:数十年来,因果推理是一个跨统计、计算机科学、教育、公共政策和经济学等多个领域的重要研究课题。目前,与随机对照试验相比,利用观测数据进行因果关系估计已经成为一个有吸引力的研究方向,因为有大量的可用数据和较低的预算要求。随着机器学习领域的迅速发展,各种针对观测数据的因果关系估计方法层出不穷。在这项综述中,我们提供了一个全面的综述因果推理方法下的潜在结果框架,一个众所周知的因果推理框架。这些方法根据是否需要潜在结果框架的所有三个假设分为两类。对于每一类,分别对传统的统计方法和最近的机器学习增强方法进行了讨论和比较。并介绍了这些方法的合理应用,包括在广告、推荐、医药等方面的应用。此外,还总结了常用的基准数据集和开放源代码,便于研究者和实践者探索、评价和应用因果推理方法。

网址:

https://www.zhuanzhi.ai/paper/a37f27ed97e5318b30be2999e9a768c3

6、Pre-trained Models for Natural Language Processing: A Survey(预训练语言模型)

【复旦大学】最新《预训练语言模型》2020综述论文大全,50+PTMs分类体系,25页pdf205篇参考文献

作者:Xipeng Qiu,Tianxiang Sun,Yige Xu,Yunfan Shao,Ning Dai,Xuanjing Huang

摘要:近年来,预训练模型(PTMs)的出现将自然语言处理(NLP)带入了一个新的时代。在这项综述中,我们提供了一个全面的PTMs调研。首先简要介绍了语言表示学习及其研究进展。然后,我们根据四种观点对现有的PTMs进行了系统的分类。接下来,我们将描述如何将PTMs的知识应用于下游任务。最后,我们概述了未来PTMs研究的一些潜在方向。本调查旨在为理解、使用和开发各种NLP任务的PTMs提供实际指导。

网址:

https://www.zhuanzhi.ai/paper/09d78eda59ebfb6f51a54a3ba0a4c4b1

7、A Survey on Heterogeneous Graph Embedding: Methods, Techniques, Applications and Sources(异质图网络嵌入)

异质图嵌入综述: 方法、技术、应用和资源, 23页pdf

作者:Xiao Wang, Deyu Bo, Chuan Shi, Shaohua Fan, Yanfang Ye, Philip S. Yu

摘要:

异质图(Heterogeneous Graph, HG)也称为异质信息网络(Heterogeneous Information Network, HIN),在现实世界中已经无处不在。异质图嵌入(Heterogeneous Graph Embedding, HGE),旨在在低维的空间中学习节点表示,同时保留异质结构和语义用于下游任务(例如,节点/图分类,节点聚类,链接预测),在近年来受到了广泛的关注。在综述中,我们对异质图嵌入的方法和技术的最新进展进行了全面回顾,探索了异质图嵌入的问题和挑战,并预测了该领域的未来研究方向。

该论文的主要贡献如下:

讨论了与同质图相比,异质图的异质性带来的独特挑战 。该论文对现有的异质图嵌入方法进行了全面的调研,并基于它们在学习过程中使用的信息进行分类,以解决异质性带来的特定的挑战。 对于每类代表性的异质图嵌入方法和技术,提供详细的介绍并进一步分析了其优缺点。此外,该论文首次探索了异质图嵌入方法在现实工业环境中的可转换性和适用性。 总结了开源代码和基准数据集,并对现有的图学习平台进行了详细介绍,以促进该领域的未来研究和应用。 探讨异质图嵌入的其他问题和挑战,并预测该领域的未来研究方向。

网址:

https://arxiv.org/abs/2011.14867

8、Graph Neural Networks: Taxonomy, Advances and Trends(图神经网络)

太原理工最新《图神经网络:分类,进展,趋势》综述论文,50页pdf400篇文献

作者:Yu Zhou,Haixia Zheng,Xin Huang

摘要:图神经网络为根据特定任务将真实世界的图嵌入低维空间提供了一个强大的工具包。到目前为止,已经有一些关于这个主题的综述。然而,它们往往侧重于不同的角度,使读者看不到图神经网络的全貌。本论文旨在克服这一局限性,并对图神经网络进行了全面的综述。首先,我们提出了一种新的图神经网络分类方法,然后参考了近400篇相关文献,全面展示了图神经网络的全貌。它们都被分类到相应的类别中。为了推动图神经网络进入一个新的阶段,我们总结了未来的四个研究方向,以克服所面临的挑战。希望有越来越多的学者能够理解和开发图神经网络,并将其应用到自己的研究领域。

网址:

https://www.zhuanzhi.ai/paper/5d0088fdc236ec1a522b91077290e6f2

9、Efficient Transformers: A Survey(高效Transformer)

【Google】最新《高效Transformers》综述大全,Efficient Transformers: A Survey

作者:Yi Tay, Mostafa Dehghani, Dara Bahri, Donald Metzler

摘要:Transformer模型架构最近引起了极大的兴趣,因为它们在语言、视觉和强化学习等领域的有效性。例如,在自然语言处理领域,Transformer已经成为现代深度学习堆栈中不可缺少的主要部分。最近,提出的令人眼花缭乱的X-former模型如Linformer, Performer, Longformer等这些都改进了原始Transformer架构的X-former模型,其中许多改进了计算和内存效率。为了帮助热心的研究人员在这一混乱中给予指导,本文描述了大量经过深思熟虑的最新高效X-former模型的选择,提供了一个跨多个领域的现有工作和模型的有组织和全面的概述。

图片

网址:

https://www.zhuanzhi.ai/paper/6f9193ca17c92d58e9e93a21335039f1

10、Self-supervised Learning: Generative or Contrastive(自监督学习)

作者:Xiao Liu, Fanjin Zhang, Zhenyu Hou, Zhaoyu Wang, Li Mian, Jing Zhang, Jie Tang

摘要:深度监督学习在过去的十年中取得了巨大的成功。然而,它依赖于手工标签的缺陷和易受攻击的弱点促使人们探索更好的解决方案。作为另一种学习方式,自监督学习以其在表征学习领域的飞速发展吸引了众多研究者的关注。自监督表示学习利用输入数据本身作为监督,并使得几乎所有类型的下游任务从中受益。在这项综述中,我们着眼于新的自监督学习方法,用于计算机视觉、自然语言处理和图学习。我们全面回顾了现有的实证方法,并根据它们的目的将它们归纳为三大类:生成型、对比型和生成-对比型(对抗型)。我们进一步研究了相关的理论分析工作,以提供对自监督学习如何工作的更深层次的思考。最后,我们简要讨论了自监督学习有待解决的问题和未来的发展方向。

网址: https://www.zhuanzhi.ai/paper/3bcc4f616c3e16d8b13a95a32e335101

成为VIP会员查看完整内容
0
74

当前自然语言处理的发展为低资源语言和领域提供了挑战和机遇。众所周知,深度神经网络需要大量的训练数据,而这些数据在资源贫乏的情况下可能无法得到。然而,也有越来越多的工作来提高低资源环境下的性能。基于对神经模型的基本改变和目前流行的预训练和微调范式,我们概述了低资源自然语言处理的有前途的方法。在讨论了低资源场景的定义和数据可用性的不同维度之后,我们接着研究了在训练数据稀少时支持学习的方法。这包括创建附加标签数据的机制,如数据增强和远程监督,以及转移学习设置,以减少对目标监督的需要。调查结束时,简要地看了一下在非NLP机器学习社区中建议的方法,这些方法在资源少的情况下可能对NLP有益。

https://arxiv.org/abs/2010.12309

成为VIP会员查看完整内容
0
36

视频中的异常检测是一个研究了十多年的问题。这一领域因其广泛的适用性而引起了研究者的兴趣。正因为如此,多年来出现了一系列广泛的方法,这些方法从基于统计的方法到基于机器学习的方法。在这一领域已经进行了大量的综述,但本文着重介绍了使用深度学习进行异常检测领域的最新进展。深度学习已成功应用于人工智能的许多领域,如计算机视觉、自然语言处理等。然而,这项调查关注的是深度学习是如何改进的,并为视频异常检测领域提供了更多的见解。本文针对不同的深度学习方法提供了一个分类。此外,还讨论了常用的数据集以及常用的评价指标。然后,对最近的研究方法进行了综合讨论,以提供未来研究的方向和可能的领域。

https://arxiv.org/abs/2009.14146

成为VIP会员查看完整内容
0
47

摘要

文本分类是自然语言处理中最基本、最基本的任务。过去十年,由于深度学习取得了前所未有的成功,这一领域的研究激增。大量的方法、数据集和评价指标已经在文献中提出,提高了全面和更新综述的需要。本文通过回顾1961年到2020年的先进方法的现状来填补这一空白,侧重于从浅到深的模型学习。我们根据所涉及的文本和用于特征提取和分类的模型创建文本分类的分类法。然后我们详细讨论每一个类别,处理支持预测测试的技术发展和基准数据集。本综述还提供了不同技术之间的综合比较,以及确定各种评估指标的优缺点。最后,总结了本研究的关键意义、未来研究方向和面临的挑战。

介绍

在许多自然语言处理(NLP)应用中,文本分类(为文本指定预定义标签的过程)是一个基本和重要的任务, 如情绪分析[1][2][3],主题标签[4][5][6],问答[7][8][9]和对话行为分类。在信息爆炸的时代,手工对大量文本数据进行处理和分类是一项耗时且具有挑战性的工作。此外,手工文本分类的准确性容易受到人为因素的影响,如疲劳、专业知识等。人们希望使用机器学习方法来自动化文本分类过程,以产生更可靠和较少主观的结果。此外,通过定位所需信息,可以提高信息检索效率,缓解信息超载的问题。 图1给出了在浅层和深层分析的基础上,文本分类所涉及的步骤流程图。文本数据不同于数字、图像或信号数据。它需要NLP技术来仔细处理。第一个重要的步骤是对模型的文本数据进行预处理。浅层学习模型通常需要通过人工方法获得良好的样本特征,然后用经典的机器学习算法对其进行分类。因此,特征提取在很大程度上制约了该方法的有效性。然而,与浅层模型不同,深度学习通过学习一组直接将特征映射到输出的非线性转换,将特征工程集成到模型拟合过程中。

主要文本分类方法的示意图如图2所示。从20世纪60年代到21世纪10年代,基于浅层学习的文本分类模型占据了主导地位。浅层学习意味着在乐此不疲的模型,如 NaÃŕve Bayes(NB)[10], K-近邻(KNN)[11],和支持向量机(SVM)[12]。与早期基于规则的方法相比,该方法在准确性和稳定性方面具有明显的优势。然而,这些方法仍然需要进行特征工程,这是非常耗时和昂贵的。此外,它们往往忽略文本数据中自然的顺序结构或上下文信息,使学习词汇的语义信息变得困难。自2010年代以来,文本分类逐渐从浅层学习模式向深度学习模式转变。与基于浅层学习的方法相比,深度学习方法避免了人工设计规则和特征,并自动提供文本挖掘的语义意义表示。因此,大部分文本分类研究工作都是基于DNNs的,这是一种计算复杂度很高的数据驱动方法。很少有人关注于用浅层学习模型来解决计算和数据的局限性。

在文献中,Kowsari等[13]考虑了不同的文本特征提取、降维方法、文本分类的基本模型结构和评价方法。Minaee等人[14]回顾了最近基于深度学习的文本分类方法、基准数据集和评估指标。与现有的文本分类研究不同,我们利用近年来的研究成果对现有的模型进行了从浅到深的总结。浅层学习模型强调特征提取和分类器设计。一旦文本具有精心设计的特征,就可以通过训练分类器来快速收敛。在不需要领域知识的情况下,DNNs可以自动进行特征提取和学习。然后给出了单标签和多标签任务的数据集和评价指标,并从数据、模型和性能的角度总结了未来的研究挑战。此外,我们在4个表中总结了各种信息,包括经典浅层和深度学习模型的必要信息、DNNs的技术细节、主要数据集的主要信息,以及在不同应用下的最新方法的一般基准。总而言之,本研究的主要贡献如下:

  • 我们在表1中介绍了文本分类的过程和发展,并总结了经典模式在出版年份方面的必要信息,包括地点、应用、引用和代码链接。

  • 根据模型结构,从浅层学习模型到深度学习模型,对主要模型进行了全面的分析和研究。我们在表2中对经典或更具体的模型进行了总结,并主要从基本模型、度量和实验数据集方面概述了设计差异。

  • 我们介绍了现有的数据集,并给出了主要的评价指标的制定,包括单标签和多标签文本分类任务。我们在表3中总结了基本数据集的必要信息,包括类别的数量,平均句子长度,每个数据集的大小,相关的论文和数据地址。

  • 我们在表5中总结了经典模型在基准数据集上的分类精度得分,并通过讨论文本分类面临的主要挑战和本研究的关键意义来总结综述结果。

成为VIP会员查看完整内容
3
122
小贴士
相关VIP内容
专知会员服务
16+阅读 · 7月21日
专知会员服务
30+阅读 · 7月9日
专知会员服务
12+阅读 · 4月20日
专知会员服务
74+阅读 · 1月1日
专知会员服务
26+阅读 · 2020年12月29日
专知会员服务
74+阅读 · 2020年12月21日
专知会员服务
36+阅读 · 2020年10月27日
专知会员服务
47+阅读 · 2020年9月30日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
122+阅读 · 2020年8月6日
相关论文
Mirco Theile,Jonathan Ponniah,Or Dantsker,Marco Caccamo
0+阅读 · 7月21日
Zijun Wu,Rolf H. Moehring,Chunying Ren,Dachuan Xu
0+阅读 · 7月19日
Talgat Saparov,Anvar Kurmukov,Boris Shirokih,Mikhail Belyaev
0+阅读 · 7月18日
Wenzheng Xu,Yueying Sun,Rui Zou,Weifa Liang,Qiufen Xia,Feng Shan,Tian Wang,Xiaohua Jia,Zheng Li
0+阅读 · 7月17日
Tianyang Lin,Yuxin Wang,Xiangyang Liu,Xipeng Qiu
38+阅读 · 6月8日
One-Class Classification: A Survey
Pramuditha Perera,Poojan Oza,Vishal M. Patel
6+阅读 · 1月8日
Marina Danilevsky,Kun Qian,Ranit Aharonov,Yannis Katsis,Ban Kawas,Prithviraj Sen
17+阅读 · 2020年10月1日
Mingzhen Li,Yi Liu,Xiaoyan Liu,Qingxiao Sun,Xin You,Hailong Yang,Zhongzhi Luan,Depei Qian
9+阅读 · 2020年2月6日
Kamran Kowsari,Kiana Jafari Meimandi,Mojtaba Heidarysafa,Sanjana Mendu,Laura E. Barnes,Donald E. Brown
4+阅读 · 2019年4月17日
Clement Carbonnel,David A. Cohen,Martin C. Cooper,Stanislav Zivny
3+阅读 · 2017年12月22日
Top