【MIT硬核新书】深度神经网络高效处理,82页pdf论述DNN计算加速设计原理技术

2020 年 6 月 22 日 专知
【MIT硬核新书】深度神经网络高效处理,82页pdf论述DNN计算加速设计原理技术

【导读】深度神经网络在很多监督任务都达到了SOTA性能,但是其计算量是个挑战。来自MIT 教授 Vivienne Sze等学者发布了关于《深度神经网络的高效处理》著作,本书为深度神经网络(DNNs)的高效处理提供了关键原理和技术的结构化处理。值得关注。

https://www.morganclaypoolpublishers.com/catalog_Orig/product_info.php?cPath=22&products_id=1530


本书为深度神经网络(DNNs)的高效处理提供了关键原则和技术的结构化处理。DNNs目前广泛应用于许多人工智能(AI)应用,包括计算机视觉、语音识别和机器人技术。虽然DNNs在许多人工智能任务中提供了最好的性能,但它以高计算复杂度为代价。因此,在不牺牲准确性或增加硬件成本的情况下,能够有效处理深层神经网络以提高指标(如能源效率、吞吐量和延迟)的技术对于在人工智能系统中广泛部署DNNs至关重要。


本书中包括了DNN处理的背景知识;设计DNN加速器的硬件架构方法的描述和分类;评价和比较不同设计的关键指标;DNN处理的特点是服从硬件/算法的共同设计,以提高能源效率和吞吐量;以及应用新技术的机会。读者将会发现对该领域的结构化介绍,以及对现有工作中关键概念的形式化和组织,从而提供可能激发新想法的见解。


深度神经网络(DNNs)已经变得非常流行; 然而,它们是以高计算复杂度为代价的。因此,人们对有效处理DNNs产生了极大的兴趣。DNN加速的挑战有三:


  • 为了实现高性能和效率,

  • 提供足够的灵活性,以满足广泛和快速变化的工作负载范围

  •  能够很好地集成到现有的软件框架中。


目录内容:


第一部分理解深层神经网络

  • 介绍

  • 深度神经网络概述


第二部分处理DNNs的硬件设计

  • 关键量度和设计目标

  • 内核计算

  • 设计DNN加速器

  • 专用硬件上的操作映射


第三部分,DNN硬件和算法的协同设计

  • 减少精度

  • 利用稀疏

  • 设计高效的DNN模型

  • 先进技术

  • 结论


第一个模块旨在提供DNN领域的总体背景和了解DNN工作负载的特点。


  • 第一章提供了DNNs为什么重要的背景,他们的历史和他们的应用。

  • 第二章概述了神经网络的基本组成部分和目前常用的神经网络模型。还介绍了用于DNN研究和开发的各种资源。这包括各种软件框架的讨论,以及用于训练和评估的公共数据集。



第二部分主要介绍处理DNNs的硬件设计。它根据定制程度(从通用平台到完全定制硬件)讨论各种架构设计决策,以及在将DNN工作负载映射到这些架构时的设计考虑。同时考虑了时间和空间架构。


  • 第三章描述了在设计或比较各种DNN加速器时应该考虑的关键指标。


  • 第四章描述了如何处理DNN内核,重点关注的是时序架构,比如cpu和gpu。为了获得更高的效率,这类架构通常具有缓存层次结构和粗粒度的计算能力,例如向量指令,从而使计算结果更高效。对于这样的架构,DNN处理通常可以转化为矩阵乘法,这有很多优化的机会。本章还讨论了各种软件和硬件优化,用于加速这些平台上的DNN计算,而不影响应用程序的精度。


  • 第五章介绍了DNN处理专用硬件的设计,重点介绍了空间架构。它强调了用于处理DNN的硬件的处理顺序和产生的数据移动,以及与DNN的循环嵌套表示的关系。循环嵌套中的循环顺序称为数据流,它决定了移动每个数据块的频率。循环嵌套中的循环限制描述了如何将DNN工作负载分解成更小的块,称为平铺/阻塞,以说明在内存层次结构的不同级别上有限的存储容量。


  • 第六章介绍了将DNN工作负载映射到DNN加速器的过程。它描述了找到优化映射所需的步骤,包括枚举所有合法映射,并通过使用预测吞吐量和能源效率的模型来搜索这些映射。



第三个模块讨论了如何通过算法和硬件的协同设计来提高堆栈的效率,或者通过使用混合信号电路和新的存储器或设备技术来降低堆栈的效率。在修改算法的情况下,必须仔细评估对精度的影响。


  • 第七章描述了如何降低数据和计算的精度,从而提高吞吐量和能源效率。它讨论了如何使用量化和相关的设计考虑来降低精度,包括硬件成本和对精度的影响。


  • 第八章描述了如何利用DNNs的稀疏性来减少数据的占用,这为减少存储需求、数据移动和算术操作提供了机会。它描述了稀疏的各种来源和增加稀疏的技术。然后讨论了稀疏DNN加速器如何将稀疏转化为能源效率和吞吐量的提高。它还提出了一种新的抽象数据表示,可用于表达和获得关于各种稀疏DNN加速器的数据流的见解。


  • 第九章描述了如何优化DNN模型的结构(即(例如DNN的“网络架构”),以提高吞吐量和能源效率,同时尽量减少对准确性的影响。它讨论了手工设计方法和自动设计方法(例如。(如神经结构搜索)


  • 第十章,关于先进技术,讨论了如何使用混合信号电路和新的存储技术,使计算更接近数据(例如,在内存中处理),以解决昂贵的数据移动,支配吞吐量和DNNs的能源消耗。并简要讨论了在光域内进行计算和通信以降低能耗和提高吞吐量的前景。



Vivienne Sze,来自 MIT 的高效能多媒体系统组(Energy-Efficient Multimedia Systems Group)。她曾就读于多伦多大学,在 MIT 完成 PhD 学业并获得电气工程博士学位,目前在 MIT 任教。Sze 教授的主要研究兴趣是高效能算法和移动多媒体设备应用架构。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“DNNEC” 可以获取《【MIT硬核新书】深度神经网络高效处理82页pdf》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看获取5000+AI主题知识资源
登录查看更多
3

相关内容

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

语义表示是自然语言处理的基础,我们需要将原始文本数据中的有用信息转换为计算机能够理解的语义表示,才能实现各种自然语言处理应用。表示学习旨在从大规模数据中自动学习数据的语义特征表示,并支持机器学习进一步用于数据训练和预测。以深度学习为代表的表示学习技术,能够灵活地建立对大规模文本、音频、图像、视频等无结构数据的语义表示,显著提升语音识别、图像处理和自然语言处理的性能,近年来引发了人工智能的新浪潮。本书是第一本完整介绍自然语言处理表示学习技术的著作。书中全面介绍了表示学习技术在自然语言处理领域的最新进展,对相关理论、方法和应用进行了深入介绍,并展望了未来的重要研究方向。

本书全面介绍了自然语言处理表示学习技术的理论、方法和应用,内容包括三大部分:第一部分介绍了单词、短语、句子和文档等不同粒度语言单元的表示学习技术;第二部分介绍了与自然语言密切相关的世界知识、语言知识、复杂网络和跨模态数据的表示学习技术;第三部分整理了相关开放资源与工具,并探讨了面向自然语言处理的表示学习技术面临的重要挑战和未来研究方向。本书对于自然语言处理和人工智能基础研究具有一定的参考意义,既适合专业人士了解自然语言处理和表示学习的前沿热点,也适合机器学习、信息检索、数据挖掘、社会网络分析、语义Web等其他相关领域学者和学生作为参考读物。

成为VIP会员查看完整内容
0
136

【导读】深度神经网络在很多监督任务都达到了SOTA性能,但是其计算量是个挑战。来自MIT 教授 Vivienne Sze等学者发布了关于《深度神经网络的高效处理》著作,本书为深度神经网络(DNNs)的高效处理提供了关键原则和技术的结构化处理。值得关注。

https://www.morganclaypoolpublishers.com/catalog_Orig/product_info.php?cPath=22&products_id=1530

本书为深度神经网络(DNNs)的高效处理提供了关键原则和技术的结构化处理。DNNs目前广泛应用于许多人工智能(AI)应用,包括计算机视觉、语音识别和机器人技术。虽然DNNs在许多人工智能任务中提供了最好的性能,但它以高计算复杂度为代价。因此,在不牺牲准确性或增加硬件成本的情况下,能够有效处理深层神经网络以提高指标(如能源效率、吞吐量和延迟)的技术对于在人工智能系统中广泛部署DNNs至关重要。

本书中包括了DNN处理的背景知识;设计DNN加速器的硬件架构方法的描述和分类;评价和比较不同设计的关键指标;DNN处理的特点是服从硬件/算法的共同设计,以提高能源效率和吞吐量;以及应用新技术的机会。读者将会发现对该领域的结构化介绍,以及对现有工作中关键概念的形式化和组织,从而提供可能激发新想法的见解。

深度神经网络(DNNs)已经变得非常流行; 然而,它们是以高计算复杂度为代价的。因此,人们对有效处理DNNs产生了极大的兴趣。DNN加速的挑战有三:

  • 为了实现高性能和效率
  • 提供足够的灵活性,以满足广泛和快速变化的工作负载范围
  • 能够很好地集成到现有的软件框架中。

目录内容:

第一部分理解深层神经网络

  • 介绍
  • 深度神经网络概述

第二部分处理DNNs的硬件设计

  • 关键量度和设计目标
  • 内核计算
  • 设计DNN加速器
  • 专用硬件上的操作映射

第三部分,DNN硬件和算法的协同设计

  • 减少精度
  • 利用稀疏
  • 设计高效的DNN模型
  • 先进技术
  • 结论

第一个模块旨在提供DNN领域的总体背景和了解DNN工作负载的特点。

  • 第一章提供了DNNs为什么重要的背景,他们的历史和他们的应用。
  • 第二章概述了神经网络的基本组成部分和目前常用的神经网络模型。还介绍了用于DNN研究和开发的各种资源。这包括各种软件框架的讨论,以及用于训练和评估的公共数据集。

第二部分主要介绍处理DNNs的硬件设计。它根据定制程度(从通用平台到完全定制硬件)讨论各种架构设计决策,以及在将DNN工作负载映射到这些架构时的设计考虑。同时考虑了时间和空间架构。

  • 第三章描述了在设计或比较各种DNN加速器时应该考虑的关键指标。
  • 第四章描述了如何处理DNN内核,重点关注的是时序架构,比如cpu和gpu。为了获得更高的效率,这类架构通常具有缓存层次结构和粗粒度的计算能力,例如向量指令,从而使计算结果更高效。对于这样的架构,DNN处理通常可以转化为矩阵乘法,这有很多优化的机会。本章还讨论了各种软件和硬件优化,用于加速这些平台上的DNN计算,而不影响应用程序的精度。
  • 第五章介绍了DNN处理专用硬件的设计,重点介绍了空间架构。它强调了用于处理DNN的硬件的处理顺序和产生的数据移动,以及与DNN的循环嵌套表示的关系。循环嵌套中的循环顺序称为数据流,它决定了移动每个数据块的频率。循环嵌套中的循环限制描述了如何将DNN工作负载分解成更小的块,称为平铺/阻塞,以说明在内存层次结构的不同级别上有限的存储容量。
  • 第六章介绍了将DNN工作负载映射到DNN加速器的过程。它描述了找到优化映射所需的步骤,包括枚举所有合法映射,并通过使用预测吞吐量和能源效率的模型来搜索这些映射。

第三个模块讨论了如何通过算法和硬件的协同设计来提高堆栈的效率,或者通过使用混合信号电路新的存储器或设备技术来降低堆栈的效率。在修改算法的情况下,必须仔细评估对精度的影响。

  • 第七章描述了如何降低数据和计算的精度,从而提高吞吐量和能源效率。它讨论了如何使用量化和相关的设计考虑来降低精度,包括硬件成本和对精度的影响。
  • 第八章描述了如何利用DNNs的稀疏性来减少数据的占用,这为减少存储需求、数据移动和算术操作提供了机会。它描述了稀疏的各种来源和增加稀疏的技术。然后讨论了稀疏DNN加速器如何将稀疏转化为能源效率和吞吐量的提高。它还提出了一种新的抽象数据表示,可用于表达和获得关于各种稀疏DNN加速器的数据流的见解。
  • 第九章描述了如何优化DNN模型的结构(即(例如DNN的“网络架构”),以提高吞吐量和能源效率,同时尽量减少对准确性的影响。它讨论了手工设计方法和自动设计方法(例如。(如神经结构搜索)
  • 第十章,关于先进技术,讨论了如何使用混合信号电路和新的存储技术,使计算更接近数据(例如,在内存中处理),以解决昂贵的数据移动,支配吞吐量和DNNs的能源消耗。并简要讨论了在光域内进行计算和通信以降低能耗和提高吞吐量的前景。

Vivienne Sze,来自 MIT 的高效能多媒体系统组(Energy-Efficient Multimedia Systems Group)。她曾就读于多伦多大学,在 MIT 完成 PhD 学业并获得电气工程博士学位,目前在 MIT 任教。Sze 教授的主要研究兴趣是高效能算法和移动多媒体设备应用架构。

成为VIP会员查看完整内容
0
97

深度神经网络最近展示了其解决复杂任务的惊人能力。如今的模型使用功能强大的GPU卡在数百万个示例上进行训练,能够可靠地对图像进行注释、翻译文本、理解口语或玩国际象棋或围棋等战略性游戏。此外,深度学习也将成为未来许多技术的组成部分,例如自动驾驶、物联网(IoT)或5G网络。特别是随着物联网的出现,智能设备的数量在过去几年里迅速增长。这些设备中有许多都配备了传感器,使它们能够以前所未有的规模收集和处理数据。这为深度学习方法提供了独特的机会。

然而,这些新的应用程序带有许多附加的约束和要求,这些约束和要求限制了当前模型的开箱即用。

1. 嵌入式设备、物联网设备和智能手机的内存和存储容量有限,能源资源有限. 像VGG-16这样的深度神经网络需要超过500 MB的内存来存储参数,执行单次向前传递需要15 gb的操作。很明显,这些模型的当前(未压缩的)形式不能在设备上使用。

2. 训练数据通常分布在设备上,由于隐私问题或有限的资源(带宽),无法简单地在中央服务器上收集. 由于只有少量数据点的模型的局部训练通常不太有希望,因此需要新的协作训练方案来将深度学习的能力引入这些分布式应用程序。

本教程将讨论最近提出的解决这两个问题的技术。我们将首先简要介绍深度学习,它的当前使用和今天的模型在计算和内存复杂性、能源效率和分布式环境方面的局限性。我们将强调解决这些问题的实际需要,并讨论实现这一目标的最新进展,包括ITU ML5G和MPEG AHG CNNMCD正在开展的标准化活动。

然后我们将进入神经网络压缩的话题。我们将首先简要介绍源编码和信息论的基本概念,包括速率失真理论、量化、熵编码和最小描述长度原则。这些概念需要形式化的神经网络压缩问题。然后我们将继续讨论压缩DNNs的具体技术。为此,我们将区分压缩过程的不同步骤,即剪枝和稀疏化、量化和熵编码。前两步是有损的,而最后一步是无损的。由于缩小尺寸并不是神经网络压缩的唯一目标(例如,快速推理、能源效率是其他目标),我们还将讨论有效推理的方法,包括最近提出的神经网络格式。最后,我们将介绍一个用例,即设备上的语音识别,演示如何在实际应用中使用压缩方法。

最后我们将介绍分布式学习的最新发展。我们提出了不同的分布式训练场景,并根据它们的通信特性进行了比较。接下来,我们将重点讨论联邦学习。我们列举了联邦学习中存在的挑战——通信效率、数据异构性、隐私、个性化、健壮性——并提出了解决这些挑战的方法。我们特别关注为减少分布式学习中的通信开销而提出的技术,并讨论集群化FL,这是一种与模型无关的分布式多任务优化的新方法。这里我们将强调本教程第一部分中介绍的概念的相似性,即稀疏化、量化和编码。

目录:

  1. 介绍
  • 目前使用的深度学习
  • 现有模型和新应用的实际局限性
  • 研究、工业和标准化方面的最新发展
  1. 神经网络压缩
  • 背景:资料编码、信息论
  • 修剪和稀疏化方法
  • 量化和定点推理
  • 神经网络格式
  • 用例研究:设备上的语音识别

3.问题 4. 休息时间 5. 分布式学习

  • 背景:SGD,学习理论
  • 联邦和分布式学习的基本概念
  • 减少通信开销和连接到NN压缩
  • 联邦学习和差异隐私
  • 集群联合学习
  1. 问题
成为VIP会员查看完整内容
0
75

演讲主讲人是 Vivienne Sze,来自 MIT 的高效能多媒体系统组(Energy-Efficient Multimedia Systems Group)。她曾就读于多伦多大学,在 MIT 完成 PhD 学业并获得电气工程博士学位,目前在 MIT 任教。Sze 教授的主要研究兴趣是高效能算法和移动多媒体设备应用架构,她最近在MIT公开课给了《Efficient Computing for Deep Learning, AI and Robotics》报告。

本次演讲的主题是 DNN 在硬件设备中的高效计算处理方法。随着深度学习算法效率逐渐提高,计算速度、延迟程度、耗能和硬件成本成为制约算法性能的瓶颈问题。如果能够解决这些问题,包括自动驾驶、无人机导航、智能手机、可穿戴设备和物联网设备就都能够受益于算法性能的提升。

在演讲中,Sze 教授首先会介绍 DNN 算法,以及它们在各类硬件上部署时可能带来的性能损失。更重要的是,演讲会提到基准测试和评价标准对设计高效 DNN 算法带来的影响。之后,Sze 教授会从算法角度硬件架构两个角度介绍减少耗能的方法。同时,演讲也会涵盖将这些方法应用于计算机视觉等领域。Sze 教授因多项成果获得过谷歌和 Facebook 的 faculty 奖等多个奖项。

本次演讲的主要目标如下:

  1. 让硬件高效处理 DNN 的方法(非常多);

  2. 关注包括设计 DNN 硬件处理器和 DNN 模型的评估方法;

设计 DNN 硬件处理器和 DNN 模型的方法;

研究过程中,你应当问什么样的关键问题;

  1. 具体地,演讲还会讨论;

真正需要评价和对比的评估指标体系;

达成这些指标的挑战;

了解设计中需要考虑到的问题,以及可能平衡在算法性能和耗能中遇到的问题;

  1. 要关注硬件推理,但包括一部分训练的内容。

在讲解的过程中,Sze 教授会穿插大量的图解和案例,让介绍更加充实有趣。

成为VIP会员查看完整内容
0
40

主题: Efficient Processing of Deep Neural Networks: from Algorithms to Hardware Architectures

简介: 本教程介绍了用于高效处理深度神经网络(DNN)的方法,这些方法已在许多AI应用程序中使用,包括计算机视觉,语音识别,机器人等。DNN以高计算复杂度为代价,提供了一流的准确性和结果质量。因此,为深度神经网络设计有效的算法和硬件架构是朝着在人工智能系统(例如,自动驾驶汽车,无人机,机器人,智能手机,可穿戴设备,物联网等)中广泛部署DNN迈出的重要一步。在速度,延迟,功耗/能耗和成本方面有严格的限制。 在本教程中,我们将简要概述DNN,讨论支持DNN的各种硬件平台的权衡,包括CPU,GPU,FPGA和ASIC,并重点介绍基准测试/比较指标和评估DNN效率的设计注意事项。然后,我们将从硬件体系结构和网络算法的角度描述降低DNN计算成本的最新技术。最后,我们还将讨论如何将这些技术应用于各种图像处理和计算机视觉任务。

嘉宾介绍: Vivienne Sze是麻省理工学院电气工程和计算机科学系的副教授。她的研究兴趣包括能量感知信号处理算法,便携式多媒体应用的低功耗电路和系统设计,包括计算机视觉,深度学习,自主导航和视频编码。在加入MIT之前,她是TI研发中心的技术人员,在那里她设计了用于视频编码的低功耗算法和体系结构。在高效视频编码(HEVC)的开发过程中,她还代表TI参加了ITU-T和ISO / IEC标准机构的JCT-VC委员会,该委员会获得了黄金时段工程艾美奖。她是《高效视频编码(HEVC):算法和体系结构》(Springer,2014年)的合编者,也是即将出版的《深度神经网络的高效处理》(Morgan&Claypool)的合著者。她是2020年机器学习和系统会议(MLSys)的计划共同主席,并教授MIT设计高效深度学习系统的专业教育课程。

成为VIP会员查看完整内容
0
36

A Survey of Model Compression and Acceleration for Deep Neural Networks 深度卷积神经网络(CNNs)最近在许多视觉识别任务中取得了巨大的成功。然而,现有的深度神经网络模型在计算上是昂贵的和内存密集型的,这阻碍了它们在低内存资源的设备或有严格时间延迟要求的应用程序中的部署。因此,在不显著降低模型性能的情况下,在深度网络中进行模型压缩和加速是一种自然的思路。在过去几年中,这方面取得了巨大的进展。本文综述了近年来发展起来的压缩和加速CNNs模型的先进技术。这些技术大致分为四种方案: 参数剪枝和共享、低秩因子分解、传输/紧凑卷积过滤器和知识蒸馏。首先介绍参数修剪和共享的方法,然后介绍其他技术。对于每种方案,我们都提供了关于性能、相关应用程序、优点和缺点等方面的详细分析。然后我们将讨论一些最近比较成功的方法,例如,动态容量网络和随机深度网络。然后,我们调查评估矩阵、用于评估模型性能的主要数据集和最近的基准测试工作。最后,对全文进行总结,并对今后的研究方向进行了展望。

成为VIP会员查看完整内容
0
81
小贴士
相关资讯
《AutoML:方法,系统,挑战》新书免费下载
新智元
16+阅读 · 2019年5月28日
硬件加速神经网络综述
计算机研究与发展
14+阅读 · 2019年2月1日
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
27+阅读 · 2018年10月31日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
9+阅读 · 2018年9月20日
最大熵原理(一)
深度学习探索
9+阅读 · 2017年8月3日
给DNN处理器跑个分 - 指标篇
StarryHeavensAbove
4+阅读 · 2017年7月9日
相关VIP内容
专知会员服务
60+阅读 · 2020年8月22日
专知会员服务
33+阅读 · 2020年8月19日
专知会员服务
136+阅读 · 2020年7月11日
专知会员服务
46+阅读 · 2020年5月21日
深度神经网络模型压缩与加速综述
专知会员服务
81+阅读 · 2019年10月12日
相关论文
Anomalous Instance Detection in Deep Learning: A Survey
Saikiran Bulusu,Bhavya Kailkhura,Bo Li,Pramod K. Varshney,Dawn Song
22+阅读 · 2020年3月16日
Seongjun Yun,Minbyul Jeong,Raehyun Kim,Jaewoo Kang,Hyunwoo J. Kim
10+阅读 · 2020年2月5日
Alexey Romanov,Maria De-Arteaga,Hanna Wallach,Jennifer Chayes,Christian Borgs,Alexandra Chouldechova,Sahin Geyik,Krishnaram Kenthapadi,Anna Rumshisky,Adam Tauman Kalai
3+阅读 · 2019年4月10日
Jiwoong Choi,Dayoung Chun,Hyun Kim,Hyuk-Jae Lee
6+阅读 · 2019年4月9日
Deep Learning for Generic Object Detection: A Survey
Li Liu,Wanli Ouyang,Xiaogang Wang,Paul Fieguth,Jie Chen,Xinwang Liu,Matti Pietikäinen
8+阅读 · 2018年9月6日
Receptive Field Block Net for Accurate and Fast Object Detection
Songtao Liu,Di Huang,Yunhong Wang
3+阅读 · 2018年7月26日
Pingping Zhang,Wei Liu,Huchuan Lu,Chunhua Shen
4+阅读 · 2018年2月19日
Kaiming He,Georgia Gkioxari,Piotr Dollár,Ross Girshick
7+阅读 · 2018年1月24日
Mohammad Hossain Namaki,F A Rezaur Rahman Chowdhury,Md Rakibul Islam,Janardhan Rao Doppa,Yinghui Wu
6+阅读 · 2018年1月21日
Mohammad Javad Shafiee,Brendan Chywl,Francis Li,Alexander Wong
5+阅读 · 2017年9月18日
Top