课程目标 理解、记忆模式识别中的基本概念、步骤和方法 对重要方法,要能实际应用,并能理解其前提条件、 应用范围、应用注意事项和方法原理及推导 对讲授的其他方法,要能理解其含义和使用环境 要对模式识别的前沿领域有感性的认识 提高目标  进一步能通过独立阅读和实践掌握较深入的问题和方 法,并能应用到学习、研究中遇到的问题中去

成为VIP会员查看完整内容
1
90

相关内容

南京大学坐落于钟灵毓秀、虎踞龙蟠的金陵古都,是一所历史悠久、声誉卓著的百年名校。1949年,由国立中央大学更名为国立南京大学。南京大学是综合研究型大学,格物致知,广博易良,向有学科齐备的传统,涵盖了众多领域,现为中央直管、教育部直属的全国重点大学,是”985工程”和“211工程”重点建设的大学之一。

题目

第八届中国科技大学《计算机图形学》暑期课程课件

关键字

计算机图像学,教学课件,中国科技大学

简介

《计算机图形学前沿进展》(课程编号:001M06)为中国科技大学暑期学期的课程。课程由数学科学学院中科大图形与几何计算实验室(GCL)的张举勇老师与刘利刚老师及国内外学者共同授课。本年度课程的主题为 “几何优化、几何深度学习与三维视觉” 。本次课程的内容涵盖数值优化、几何建模、三维重建、三维场景理解、几何深度学习等内容,内容丰富和前沿,是了解计算机图形学与三维机器视觉前沿和未来方向的非常难得的机会。若对计算机图形学中的几何处理不太熟悉的同学,可提前看一下 刘利刚老师开设的本科生课程《计算机图形学》( 2013,2014, 2015,2016,2017,2018 )和研究生课程《数字几何处理》的主页(其中有较完善的课程课件提供下载 )。

本课程为中国科学技术大学全校性公共选修课程,面向应用数学、计算机科学、信息科学等相关专业的学生,欢迎数学学院、少年班学院、信息学院、计算机学院等学院的本科生高年级学生和研究生来选课 。【注】若本校的本科生需要该课程的学分,只需要在校教务系统中进行选课,而不再需要通过课程的注册系统进行注册。本次暑期课程以介绍计算机图形学与三维视觉领域的最新的研究成果及进展为主,同时兼顾本科生也会介绍该领域的一些基本问题和研究方向,只要有《线性代数》、《微积分》、《数值最优化》、《微分几何》等课程知识的学生都可以听懂。

出处

中国科技大学

成为VIP会员查看完整内容
0
32

本章从数学角度描述了卷积神经网络(CNN)的工作原理。这一章是自成一体的,重点是让初学者能够理解CNN领域。

卷积神经网络(CNN)在许多计算机视觉、机器学习和模式识别问题上表现出优异的性能。关于这个主题已经发表了许多可靠的论文,并且已经提供了许多高质量的开源CNN软件包。

也有写得很好的CNN教程或CNN软件手册。但是,我们认为,专门为初学者准备的介绍CNN的材料仍然是需要的。研究论文通常很简洁,缺乏细节。对于初学者来说,阅读这样的论文可能是困难的。针对有经验的研究人员的教程可能无法涵盖理解CNN如何运行的所有必要细节。

本章试图提出一个文档:

  • 自成一体。所有需要的数学背景知识都将在本章(或本书其他章节)中介绍;

  • 有所有衍生的细节。这一章的目的是详细解释所有必要的数学。我们尽量不忽略推导过程中的任何重要步骤。因此,初学者应该能够跟上(尽管专家可能会发现这一章有点重复);

  • 忽略实现细节。目的是让读者了解CNN是如何在数学层面运作的。我们将忽略这些实现细节。在CNN中,对各种实现细节做出正确的选择是其高准确性的关键之一(即“细节决定成败”)。然而,我们有意省略了这一部分,以便读者关注数学。在了解了数学原理和细节之后,通过亲身体验CNN编程来学习这些实现和设计细节会更有优势。本章的练习问题提供了动手制作CNN编程的机会。

CNNs在很多应用中都很有用,特别是在与图像相关的任务中。CNNs的应用包括图像分类、图像语义分割、图像中的目标检测等。在本章中,我们将重点讨论图像分类。在图像分类中,每幅图像都有一个主要的对象,占图像的很大一部分。一个图像根据其主要对象的身份被分类到其中一个类中。狗、飞机、鸟等。

成为VIP会员查看完整内容
0
88

伯克利2019三月份开设了《全栈深度学习训练营》课程,由伯克利Pieter Abbeel, Sergey Karayev, Josh Tobin等教授讲解,专门为熟悉深度学习基础的开发人员提供的实践训练,学术工业界硬货,包含15次课程,非常值得学习。

课程地址:
https://fullstackdeeplearning.com/march2019

训练模型只是深度学习项目的一部分。在本课程中,我们教授全栈生产深度学习:

  • 确定问题并估算项目成本
  • 查找、清理、标记和扩充数据
  • 选择正确的框架和计算基础设设施
  • 进行故障排除培训,确保重现性
  • 按规模部署模型

课件下载链接:
https://pan.baidu.com/s/1RiAulskhT9SOfw58uzn2-g
提取码: nnya

成为VIP会员查看完整内容
0
32
小贴士
相关论文
Knowledge Distillation from Internal Representations
Gustavo Aguilar,Yuan Ling,Yu Zhang,Benjamin Yao,Xing Fan,Edward Guo
4+阅读 · 2019年10月8日
K-BERT: Enabling Language Representation with Knowledge Graph
Weijie Liu,Peng Zhou,Zhe Zhao,Zhiruo Wang,Qi Ju,Haotang Deng,Ping Wang
17+阅读 · 2019年9月17日
How to Fine-Tune BERT for Text Classification?
Chi Sun,Xipeng Qiu,Yige Xu,Xuanjing Huang
11+阅读 · 2019年5月14日
Xiaohua Zhai,Avital Oliver,Alexander Kolesnikov,Lucas Beyer
4+阅读 · 2019年5月9日
Piotr Szymański,Tomasz Kajdanowicz,Nitesh Chawla
3+阅读 · 2019年1月1日
Learning Embedding Adaptation for Few-Shot Learning
Han-Jia Ye,Hexiang Hu,De-Chuan Zhan,Fei Sha
11+阅读 · 2018年12月10日
Peifeng Wang,Jialong Han,Chenliang Li,Rong Pan
7+阅读 · 2018年11月4日
Antoine J. -P. Tixier
10+阅读 · 2018年8月30日
Han Xiao,Lian Meng,Minlie Huang,Xiaoyan Zhu
6+阅读 · 2017年12月2日
Top