来自巴斯大学计算机科学教授Simon J.D. Prince撰写的《理解深度学习》新书,共有19章,从机器学习基础概念到深度学习各种模型,包括最新的Transformer和图神经网络,比较系统全面,值得关注。

深度学习的历史在科学界是不寻常的。一小群科学家的坚持不懈,在一个看似没有希望的领域工作了25年,已经彻底改变了一个领域,并极大地影响了社会。通常,当研究人员调查科学或工程的一个深奥和明显不切实际的角落时,它仍然是深奥和不切实际的。然而,这是一个明显的例外。尽管普遍存在怀疑,但Yoshua Bengio、Geoff Hinton、Yann LeCun等人的系统努力最终取得了回报。本书的标题是“理解深度学习”,以区别于涵盖编码和其他实用方面的书籍。**本文主要介绍深度学习的基础思想。**本书的第一部分介绍了深度学习模型,并讨论了如何训练它们、衡量它们的性能并提高性能。下一部分将讨论专门用于图像、文本和图形数据的体系结构。这些章节只需要线性代数、微积分和概率论的入门,任何数量学科的二年级本科生都应该能读懂。本书后续部分将讨论生成模型和强化学习。这些章节需要更多的概率和微积分知识,目标是更高级的学生。这个标题在一定程度上也是一个笑话——在写作时,没有人真正理解深度学习。现代深度网络学习的分段线性函数的区域比宇宙中原子的数量还要多,并且可以用比模型参数更少的数据示例进行训练。显然,我们应该能够可靠地拟合这些函数,也不应该很好地泛化到新数据。最后一章讨论这些以及其他尚未完全理解的方面。您的时间是宝贵的,我努力策划和呈现材料,以便您可以尽可能高效地理解它。每一章的主要内容是对最重要的思想的简要描述,并附有插图。附录回顾了所有的数学先决条件,不需要参考外部材料。对于希望深入研究的读者,每一章都有相关的问题、Python笔记,并总结了该领域的历史和最新研究。写一本书是一个孤独的、艰难的、多年的过程,只有当它被广泛采用时才有价值。如果您喜欢阅读本文或有改进建议,请通过附带的网站与我联系。我很乐意听到你的想法,这些想法将为后续的版本提供信息和动力。

**人工智能(AI)关注的是构建模拟智能行为的系统。**它包含了广泛的方法,包括基于逻辑、搜索和概率推理的方法。机器学习是人工智能的一个子集,它通过将数学模型拟合到观察到的数据来学习做出决策。这个领域经历了爆炸式的增长,现在(错误地)几乎是AI这个术语的同义词。深度神经网络是机器学习模型的一种,当该模型对数据进行拟合时,这被称为深度学习。在撰写本文时,深度网络是最强大、最实用的机器学习模型,在日常生活中经常遇到。使用自然语言处理算法翻译另一种语言的文本,使用计算机视觉系统在互联网上搜索特定对象的图像,或通过语音识别界面与数字助理交谈,都是很常见的。所有这些应用程序都是由深度学习驱动的。正如标题所示,本书旨在帮助该领域的新读者理解深度学习背后的原理。这本书既不太理论化(没有证明),也不太实用(几乎没有代码)。我们的目标是解释潜在的想法;在阅读完这本书后,读者将能够将深度学习应用于没有现有成功秘诀的新颖情况。机器学习方法大致可以分为三个领域:有监督、无监督和强化学习。在本书写作时,这三个领域的前沿方法都依赖于深度学习(图1 - 1)。本章从较高的层次描述了这三个领域,本书的组织结构也大致反映了这种分类法。

**本书的结构与这篇引言的结构一致。第2 ~ 9章介绍了监督学习流程。本文介绍了浅层和深层神经网络,并讨论了如何训练它们,测量和提高它们的性能。**第10-13章描述了深度神经网络的常见架构变体,包括卷积网络、残差连接和transformer。这些架构用于监督、无监督和强化学习。第14 ~ 18章使用深度神经网络解决无监督学习问题。我们用一章的时间介绍四个现代深度生成模型:生成对抗网络、变分自动编码器、归一化流和扩散模型。第19章简要介绍了深度强化学习。这是一个可以单独写成一本书的话题,因此这里的论述必然是肤浅的,但对于不熟悉该领域的读者来说,这是一个很好的起点。尽管这本书的标题是,深度学习的一些方面仍然鲜为人知。第20章提出了一些基本问题。为什么深度网络如此容易训练?为什么它们的泛化能力这么好?为什么他们需要这么多参数?它们需要很深吗?在此过程中,探索了意想不到的现象,如损失函数的结构、双下降、grokking和彩票。 * Chapter 1 - 导论 Introduction * Chapter 2 - 监督学习 Supervised learning * Chapter 3 - 浅层神经网络 Shallow neural networks * Chapter 4 - 深度神经网络 Deep neural networks * Chapter 5 - 损失函数 Loss functions * Chapter 6 - 训练模型 Training models * Chapter 7 - 梯度与初始化 Gradients and initialization * Chapter 8 - 度量性能 Measuring performance * Chapter 9 - 正则化 Regularization * Chapter 10 - 卷积网络 Convolutional nets * Chapter 11 - 残差网络 Residual networks and BatchNorm * Chapter 12 - Transformers * Chapter 13 - 图神经网络 Graph neural networks * Chapter 14 - 无监督学习Unsupervised learning * Chapter 15 - 生成对抗网络 Generative adversarial networks * Chapter 16 - Normalizing flows * Chapter 17 - 变分自编码器 Variational auto-encoders * Chapter 18 - 扩散模型 Diffusion models * Chapter 19 - 深度强化学习 Deep reinforcement learning * Chapter 20 - 为什么深度学习work?Why does deep learning work?

成为VIP会员查看完整内容
123

许多行业都渴望将AI和数据驱动技术集成到他们的系统和运营中。但要建立真正成功的人工智能系统,你需要牢固掌握基础数学。这份全面的指南弥补了人工智能的潜力和应用与其相关数学基础之间的表述差距。

https://www.oreilly.com/library/view/essential-math-for/9781098107628/

以沉浸式和对话的风格,这本书调研了在人工智能领域蓬勃发展所需的数学,专注于现实世界的应用和最先进的模型,而不是密集的学术理论。您将探索诸如回归、神经网络、卷积、优化、概率、图、随机游走、马尔可夫过程、微分方程等主题,在面向计算机视觉、自然语言处理、生成模型、强化学习、运筹学和自动化系统的独家人工智能背景下。本书面向广泛的读者,包括工程师、数据科学家、数学家、科学家和处于职业生涯早期的人,为在人工智能和数学领域取得成功奠定了坚实的基础。

你将能够: * 轻松地说人工智能、机器学习、数据科学和数学的语言 * 将机器学习模型和自然语言模型统一在一个数学结构下 * 轻松处理图和网络数据 * 探索真实数据,可视化空间变换,降低维度,处理图像 * 决定在不同的数据驱动项目中使用哪些模型 * 探索人工智能的各种含义和限制

成为VIP会员查看完整内容
84

ChatGPT,人工智能的旷世巨作。ChatGPT是一种聊天机器人软件,OpenAI于2022年11月推出的聊天机器人,具备人类语言交互外复杂的语言工作,包括自动文本生成、自动问答、自动摘要等多重功能,应用场景广阔,相较于上个版本更像人类一样聊天交流。OpenAI除了ChatGPT还包括Dall·E2、Whisper等项目分别是自动绘图、自然语言翻译等软件。OpenAI的商业模式即API接口收费,可根据不同项目需求进行收费,我们认为其商业模式属于底层模型开放性标准化SAAS服务模式。我国仍处于初期阶段,以辅助生成内容服务为主,我们认为未来有望形成相关SAAS模式。

  ChatGPT促使AIGC快速商业化发展。GPT系列是AIGC的一种商业化方向,目前AIGC已经实现商业化的方向有AI写作、AI作图、AI底层建模,未来AI生成视频和动画领域有望快速商业化发展。AIGC也被认为是继UGC、PGC/UGC之后的新型内容生产方式,有望解决PGC/UGC创作质量参差不齐或是降低其有害性内容传播等问题,有望在实现创意激发,提升内容多样性的同时降本增效,并大规模使用。目前我国已经有商业化例如百度AIGC数字人主播度晓晓、百家号TTV等。     AIGC蓬勃发展,相关厂商有望受益。我们认为AIGC的出世会产生革命性的影响,同时有望赋能千行百业。我们认为受益厂商分为三类,分别是:1、AI处理器厂商,具备自研AI处理器的厂商可以为AIGC的神经网络提供算力支撑,AI处理器芯片可以支持深度神经网络的学习和加速计算,相比于GPU和CPU拥有成倍的性能提升和极低的耗电水平;2、AI商业算法商业落地的厂商,原因是AI算法的龙头厂商在自然语言处理、机器视觉、数据标注方面都具有先发优势和技术领先性;3、AIGC相关技术储备的应用厂商,相关厂商有望在降本增效的同时实现创意激发、提升内容多样性并打开海量市场。

成为VIP会员查看完整内容
76

《图:理论和算法》这本书是一本现代文章的集合,介绍了几种基于图的方法和算法。它还涵盖了与图的矩阵表示有关的重要理论方面,如拉普拉斯矩阵和距离矩阵,可用于解决诸如哈密顿矩阵和最短路径等问题,以及寻找最小生成树和匹配模式。

图论首先由Leonhard Euler在他对Königsberg问题的七桥分析中提出并引入(Euler, 1741;Newman等人,1953)。为解决该问题,Euler将每个地块替换为一个抽象的顶点(图节点),将每个桥梁替换为一个抽象的连接(图边)。如今,图可以用来表示不同类型的数据,因此在许多研究领域有着广泛的应用。例如,图形已被用于表示网络结构、分子模型、物种迁移模式、自然语言语法结构等(例如Gross和Yellen, 2009;Foulds, 2012)。

https://www.perlego.com/book/2076412/graphs-theory-and-algorithms-pdf

成为VIP会员查看完整内容
61

本书使用数学和Python代码的新颖集成,说明了连接概率、统计和机器学习的基本概念,使读者不仅可以使用现代Python模块使用统计和机器学习模型,而且还了解它们的相对优点和缺点。为了将理论概念与实际实现清晰地联系起来,作者提供了许多经过设计的示例以及“编程技巧”,鼓励读者编写高质量的Python代码。整个文本,包括所有的图和数值结果,都可以使用所提供的Python代码进行重现,从而使读者能够在自己的计算机上使用相同的代码进行实验。

现代Python模块,如Pandas、Sympy、Scikit-learn、Statsmodels、Scipy、Xarray、Tensorflow和Keras,用于实现和可视化重要的机器学习概念,如偏差/方差权衡、交叉验证、可解释性和正则化。许多抽象的数学思想,如概率的收敛模式,都用具体的数值例子加以解释和说明。这本书适合任何具有概率论、统计学或机器学习本科水平经验并具有Python编程基本知识的人。

成为VIP会员查看完整内容
51

《数据科学中的数学方法》介绍了一种基于网络分析的新方法,将大数据整合到常微分方程和偏微分方程的框架中进行数据分析和预测。数学伴随着数据科学中出现的例子和问题,以演示高等数学,特别是数据驱动的微分方程。章节还涵盖网络分析,常微分方程和偏微分方程基于最近发表和未发表的结果。最后,本书介绍了一种基于网络分析的新方法,将大数据整合到常微分方程和偏微分方程的框架中进行数据分析和预测。在数据科学中有许多关于数学方法的书籍。目前,所有这些相关的书籍主要集中在线性代数,优化和统计方法。然而,网络分析、常微分方程模型和偏微分方程模型在数据科学中发挥着越来越重要的作用。随着COVID-19临床、流行病学和社会数据的空前丰富,数据驱动的微分方程模型在感染预测和分析方面变得更加有用。 https://www.elsevier.com/books/mathematical-methods-in-data-science/ren/978-0-443-18679-0

成为VIP会员查看完整内容
53

**本书收集了最近的研究工作,解决了关于改进GANs的学习过程和泛化的理论问题,以及GANs在现实生活各个领域的最新应用。**近年来,对抗性学习引起了国内外机器学习领域的广泛关注。生成对抗网络(Generative adversarial networks, GANs)作为对抗学习的主要方法,通过引入极大极小学习的概念,使得两个网络在学习过程中相互竞争,从而获得了巨大的成功和流行。它们的关键能力是生成新数据和复制可用的数据分布,这在许多实际应用中都是需要的,特别是在计算机视觉和信号处理中。本书面向人工智能领域的学者、从业者和研究学生,希望了解GANs理论发展及其应用的最新进展。

http://finelybook.com/generative-adversarial-learning/

成为VIP会员查看完整内容
53

本书旨在为有兴趣在数据科学和分析以及一般统计分析领域使用他们的技能的毕业生和商业从业人员在统计学方面提供帮助。一方面,本书旨在为那些上过一些统计学课程,但在日常工作中不一定使用过统计学的读者提供复习。另一方面,这些材料也适合第一次接触Python统计工作的感兴趣的读者。使用Python进行统计和数据可视化旨在通过使读者了解推断统计学背后的思想,并开始制定假设,这些假设构成统计分析、商业分析、机器学习和应用机器学习中的应用和算法的基础,从而从头开始构建统计知识。本书从Python编程和数据分析的基础知识开始,为统计学方法和假设检验打下坚实的基础,这在许多现代应用中都很有用。 https://www.routledge.com/Statistics-and-Data-Visualisation-with-Python/Rogel-Salazar/p/book/9780367744519#:~:text=Statistics%20and%20Data%20Visualisation%20with%20Python%20aims%20to%20build%20statistical,in%20statistical%20analysis%2C%20business%20analytics%2C 目录内容:

  1. Data, Stats and Stories - An Introduction
  2. Python Programming Primer
  3. Snakes, Bears & Other Numerical Beasts: NumPy, SciPy & Pandas
  4. The Measure of All Things - Statistics
  5. Definitely Maybe: Probability and Distributions
  6. Alluring Arguments and Ugly Facts - Statistical Modelling and Hypothesis Testing
  7. Delightful Details - Data Visualisation
  8. Dazzling Data Designs - Creating Charts A. Variance: Population v Sample B. Sum of First n Integers C. Sum of Squares of the First n Integers D. The Binomial Coefficient E. The Hypergeometric Distribution F. The Poisson Distribution G. The Normal Distribution H. Skewness and Kurtosis I. Kruskal-Wallis Test - No Ties

成为VIP会员查看完整内容
56

2022年,从引爆AI作画领域的DALL-E 2、Stable Diffusion等AI模型,到以ChatGPT为代表的接近人类水平的对话机器人,AIGC不断刷爆网络,其强大的内容生成能力给人们带来了巨大的震撼。学术界和产业界也都形成共识:AIGC绝非昙花一现,其底层技术和产业生态已经形成了新的格局。

就内容生产而言,AIGC作为新的生产力引擎,让我们从过去的PGC、UGC,已经不可避免地进入AIGC时代。AIGC代表着AI技术从感知、理解世界到生成、创造世界的跃迁,正推动人工智能迎来下一个时代。 经过了2022年的预热,2023年AIGC领域将迎来更大发展。AIGC生成内容的类型不断丰富、质量不断提升,也将有更多的企业积极拥抱AIGC。在这个背景下,腾讯研究院正式发布**《AIGC发展趋势报告2023:迎接人工智能的下一个时代》**。报告从技术发展和产业生态、应用趋势、治理挑战等维度,对AIGC的发展趋势进行了深入思考。 本文为报告核心内容摘要(文末附下载):

AIGC技术和产业生态

迎来发展快车道

AIGC的大爆发不仅有赖于AI技术的突破创新,还离不开产业生态快速发展的支撑。在技术创新方面,生成算法、预训练模型、多模态技术等AI技术汇聚发展,为AIGC的爆发提供了肥沃的技术土壤。

** **

图:AIGC技术累积融合 **第一,基础的生成算法模型不断突破创新。**比如为人熟知的GAN、Transformer、扩散模型等,这些模型的性能、稳定性、生成内容质量等不断提升。得益于生成算法的进步,AIGC现在已经能够生成文字、代码、图像、语音、视频、3D物体等各种类型的内容和数据。 **第二,预训练模型,也即基础模型、大模型,引发了AIGC技术能力的质变。**虽然过去各类生成模型层出不穷,但是使用门槛高、训练成本高、内容生成简单和质量偏低,远远不能满足真实内容消费场景中的灵活多变、高精度、高质量等需求。而预训练模型能够适用于多任务、多场景、多功能需求,能够解决以上诸多痛点。预训练模型技术也显著提升了AIGC模型的通用化能力和工业化水平,同一个AIGC模型可以高质量地完成多种多样的内容输出任务,让AIGC模型成为自动化内容生产的“工厂”和“流水线”。正因如此,谷歌、微软、OpenAI等企业纷纷抢占先机,推动人工智能进入预训练模型时代。 **第三,多模态技术推动了AIGC的内容多样性,进一步增强了AIGC模型的通用化能力。**多模态技术使得语言文字、图像、音视频等多种类型数据可以互相转化和生成。比如CLIP模型,它能够将文字和图像进行关联,如将文字“狗”和狗的图像进行关联,并且关联的特征非常丰富。这为后续文生图、文生视频类的AIGC应用的爆发奠定了基础。 未来,算法的进步将带来更多激动人心的应用,语言模型会得到进一步发展,可以自我持续学习的多模态AI将日益成为主流,这些因素会进一步推动AIGC领域的蓬勃发展。 **在产业生态方面,AIGC领域正在加速形成三层产业生态并持续创新发展,正走向模型即服务(MaaS)的未来。**目前,AIGC产业生态体系的雏形已现,呈现为上中下三层架构。

** **

第一层是基础层,以预训练模型为基础搭建的AIGC技术基础设施层。在国外,以OpenAI、Stability.ai为代表,通过受控API、开源等方式输出模型能力。 第二层是中间层,是在预训练模型基础上,通过专门的调试和训练,快速抽取形成垂直化、场景化、定制化的小模型和应用工具层,可以实现工业流水线式部署,同时兼具按需使用、高效经济的优势。比如,知名的二次元画风生成模型Novel-AI,以及各种风格的角色生成器等,就是基于Stable Diffusion开源进行的二次开发。随着AIGC模型加速成为新的技术平台,模型即服务(Model-as-a-Service,MaaS)开始成为现实,预计将对商业领域产生巨大影响。 第三层是应用层,依托底层模型和中间层的垂直模型,各厂商进一步开放面向C端和B端用户的各种各样的AIGC产品和服务,满足海量用户的内容创建和消费需求。例如群聊机器人、文本生成软件、头像生成软件等AIGC消费工具。 目前,从提供预训练的AI大模型的基础设施层公司到专注打造垂直领域内AIGC工具的中间层公司、再到直接面对消费者和终端用户提供产品和服务的应用层公司,美国围绕AIGC生长出繁荣的生态,技术创新引发的应用创新浪潮迭起;中国也有望凭借领先的AIGC技术赋能千行百业。

AIGC在消费互联网、产业互联网

和社会价值领域持续产生变革性影响

AIGC领域目前呈现AIGC的内容类型不断丰富、内容质量不断提升、技术的通用性和工业化水平越来越强等趋势,这使得AIGC在消费互联网领域日趋主流化,涌现了写作助手、AI绘画、对话机器人、数字人等爆款级应用,支撑着传媒、电商、娱乐、影视等领域的内容需求。目前AIGC也正在向产业互联网、社会价值领域扩张应用。**

**

图:AIGC应用现状概览(引用自红杉资本) **在消费互联网领域,AIGC牵引数字内容领域的全新变革。**目前AIGC的爆发点主要是在内容消费领域,已经呈现百花齐放之势。AIGC生成的内容种类越来越丰富,而且内容质量也在显著提升,产业生态日益丰富。这其中有三个值得关注的趋势: **第一,AIGC有望成为新型的内容生产基础设施,塑造数字内容生产与交互新范式,持续推进数字文化产业创新。**过去AI在内容消费领域的作用主要体现在推荐算法成为了新型的传播基础设施。推荐算法对数字内容传播,短视频为主的数字内容新业态发展,起到了颠覆式的变革作用。而现在,随着AIGC生成的内容种类越来越丰富,内容的质量不断提升,AIGC将作为新型的内容生产基础设施对既有的内容生成模式产生变革影响。 **第二,AIGC的商业化应用将快速成熟,市场规模会迅速壮大。**当前AIGC已经率先在传媒、电商、影视、娱乐等数字化程度高、内容需求丰富的行业取得重大发展,市场潜力逐渐显现。比如,在广告领域,腾讯混元AI大模型能够支持广告智能制作,即利用AIGC将广告文案自动生成为广告视频,大大降低了广告视频制作成本。巨大的应用前景将带来市场规模的快速增长,根据6pen预测,未来五年10%-30%的图片内容由AI参与生成,有望创造超过600亿以上市场规模。也有国外商业咨询机构预测,2030年AIGC市场规模将达到1100亿美元。 **第三,AIGC还将作为生产力工具,不断推动聊天机器人、数字人、元宇宙等领域发展。**AIGC技术让聊天机器人接近人类水平日益成为现实,当前以ChatGPT为代表的聊天机器人已经在刺激搜索引擎产业的神经,未来人们获取信息是否会更多通过聊天机器人而非搜索引擎?这已经使谷歌等公司面临的巨大压力。AIGC也在大大提升数字人的制作效能,并且使其更神似人。比如腾讯AI LAB的虚拟歌手AI艾灵,能够基于AIGC实现作词和歌曲演唱。在元宇宙领域,AIGC在构建沉浸式空间环境、提供个性化内容体验、打造智能用户交互等方面发挥重要作用。比如,扎克伯格在元宇宙的岛屿上,可以通过发出语音命令生成创造海滩、变换天气,添加不同的场景等。只有借助AGIC,元宇宙才可能以低成本、高效率的方式满足海量用户的不同内容需求。 **在产业互联网领域,基于AIGC技术的合成数据(synthetic data)迎来重大发展,合成数据将牵引人工智能的未来。**MIT科技评论将AI合成数据列为2022年10大突破性技术之一;Gartner也预测称,到2030年合成数据将彻底取代真实数据,成为训练AI的主要数据来源。

图:合成数据发展预测(来源:Gartner) 合成数据的用途是成为真实世界数据的廉价替代品,用来训练、测试、验证AI模型。AIGC技术的持续创新,让合成数据迎来新的发展契机,开始迸发出更大的产业发展和商业应用活力。这主要体现在以下四个方面: **第一,合成数据为AI模型训练开发提供强大助推器,推动实现AI 2.0。**过去用真实世界数据训练AI模型,存在数据采集和标注的成本高昂,数据质量较难保障、数据多样化不足、隐私保护挑战等多方面问题。而合成数据可以很好的解决这些问题。使用合成数据不仅能更高效地训练AI模型,而且可以让AI在合成数据构建的虚拟仿真世界中自我学习、进化,极大扩展AI的应用可能性。从某种意义上也可以说合成数据让AI模型训练从1.0阶段发展到2.0阶段。 **第二,合成数据助力破解AI“深水区”的数据难题,持续拓展产业互联网应用空间。**目前,合成数据正迅速向交通、金融、医疗、零售、工业等诸多产业领域拓展应用,帮助破解产业互联网应用中的数据难题。比如,腾讯自动驾驶团队研发的仿真系统TAD SIM可以自动生成各种交通场景数据,助力自动驾驶系统测试、开发。在医疗领域,美国国立卫生研究院和合成数据服务商合作,基于其COVID-19病人病历数据库,合成了不具有可识别性的替代数据,可供世界范围内的研究人员自由分享和使用。

图:腾讯自动驾驶数字孪生仿真平台

**第三,正是由于合成数据对人工智能未来发展的巨大价值,合成数据正加速成为一个新产业赛道,科技大厂和创新企业纷纷抢先布局。**目前,全球合成数据创业企业也已经达到100家,英伟达、亚马逊、微软等头部科技企业也在加速布局,涌现了合成数据即服务(SDaaS,synthetic data as a service)这一全新商业模式。

**第四,合成数据加速构建AI赋能、数实融合的大型虚拟世界。**合成数据指向的终极应用形态是借助游戏引擎、3D图形、AIGC技术构建的数实融合的大型虚拟世界。基于合成数据构建的大型虚拟世界,为测试、开发新的人工智能应用,提供了一个安全、可靠、高效以及最重要的是——低成本的、可重复利用的环境,将成为AI数实融合的关键载体,包括为AI开发提供数据和场景、试验田等。比如腾讯开悟的AI开放研究环境,已经吸引了国内外众多决策智能领域的研究团队使用。

**在社会价值领域,AIGC也在助力可持续社会价值的实现。**比如,在医疗健康方面,AI语音生成帮助病人“开口说话”。语音合成软件制造商Lyrebird为渐冻症患者设计的语音合成系统实现“声音克隆”,帮助患者重新获得“自己的声音”。AI数字人也能帮助老年痴呆症患者与他们可能记得的年轻面孔或者逝去的亲人互动。此外,AIGC也可以用于文物修复,助力文物保护传承。腾讯公司利用360度沉浸式展示技术、智能音视频技术、人工智能等技术手段,对敦煌古壁画进行数字化分析与修复。在国外,DeepMind合作开发的深度神经网络模型Ithaca可以修复残缺的历史碑文。

图:腾讯利用AIGC技术手段,助力敦煌古壁画修复 总之,随着AIGC模型的通用化水平和工业化能力的持续提升,AIGC的根本影响在于,将极大降低内容生产和交互的门槛和成本,有望带来一场自动化内容生产与交互变革,引起社会的成本结构的重大改变,进而在各行各业引发巨震。未来,“AIGC+”将持续大放异彩,深度赋能各行各业高质量发展。

以可信AIGC** 积极应对科技治理问题与挑战,****拥抱人工智能的下一个时代**发展总是与挑战并生,AIGC的发展也面临许多科技治理问题的挑战。目前,主要是知识产权、安全、伦理和环境四个方面的挑战。

首先,AIGC引发的新型版权侵权风险,已经成为整个行业发展所面临的紧迫问题。因版权争议,国外艺术作品平台ArtStation上的画师们掀起了抵制AIGC生成图像的活动。其次,安全问题始终存在于科技发展应用之中。在AIGC中,主要表现为信息内容安全、AIGC滥用引发诈骗等新型违法犯罪行为,以及AIGC的内生安全等。较为著名的案例是,诈骗团队利用AIGC换脸伪造埃隆·马斯克的视频,半年诈骗价值超过2亿人民币的数字货币。再次,算法歧视等伦理问题依然存在。比如,DALL·E 2具有显著的种族和性别刻板印象。最后是环境影响,AIGC模型训练消耗大量算力,碳排放量惊人。此前就有研究表明,单一机器学习模型训练所产生的碳排放,相当于普通汽车寿命期内碳排放量的5倍。

图:腾讯优图实验室推出FaceIn人脸防伪产品,能够自动检测精准识别视频、图像中是否应用人脸伪造技术 **为了应对以上挑战,面向人工智能的下一个时代,人们需要更加负责任地、以人为本地发展应用AIGC技术,打造可信AIGC生态。**面对AIGC技术应用可能带来的风险挑战,社会各界需要协同参与、共同应对,通过法律、伦理、技术等方面的多元措施支持构建可信AI生态。在立法方面,网信办等三部门出台的《互联网信息服务深度合成管理规定》针对深度合成技术服务提出的要求和管理措施,诸如禁止性要求、标识要求、安全评估等,亦适用于AIGC。接下来,需要着重从以下方面持续推进AIGC的政策和治理。

其一,政府部门需要结合AIGC技术的发展应用情况,制定并明晰AIGC的知识产权与数据权益保护规则。目前,AIGC的知识产权与数据权益保护规则的不明确,在某种程度上导致甚至加剧了AI领域的乱象。

其二,研发应用AIGC技术的主体需要积极探索自律管理措施,例如,秉持不作恶、科技向善等目的,制定适宜的政策(消极要求和积极要求),采取控制和安全措施保障AIGC的安全可控应用,采取内容识别、内容溯源等技术确保AIGC的可靠来源。

其三,打造安全可信的AIGC应用,需要深入推进AI伦理治理。例如,行业组织可以制定可信AIGC的伦理指南,更好地支持AIGC健康可持续发展;AIGC领域的创新主体需要考虑通过伦理委员会等方式,推进落实AI风险管理、伦理审查评估等,在AIGC应用中实现“伦理嵌入设计”(ethics by design)。

其四,社会各界需要携手应对AIGC领域的能源消耗问题,推行绿色AI的发展理念,致力于打造绿色可持续、环境友好型的AI模型,实现智能化与低碳化融合发展。

未来已来,让我们拥抱AIGC,拥抱人工智能的下一个时代,打造更美好的未来。

****


成为VIP会员查看完整内容
51

深度强化学习的最新进展已经证明了其在解决现实问题方面的巨大潜力。然而,有两个问题阻碍了强化学习的应用:效率和效果。**本文研究如何通过设计基于深度模型的算法来提高强化学习的效率和效果。****对动力学模型的访问使算法能够进行规划,这是顺序决策的关键。本文主要围绕在线强化学习、神经网络在深度强化学习中的表达能力、离线强化学习和安全强化学习四个主题展开研究。**对于在线强化学习,本文提出了一个具有理论保证的算法框架,利用在学习环境中学习到的策略在真实环境中可以获得的性能下界。通过实验验证了所提方法的有效性。对于深度强化学习中神经网络的表达能力,证明了在某些情况下,基于模型的方法比无模型的方法需要更少的表示能力来近似接近最优的策略,并根据经验表明,这在模拟机器人环境中可能是一个问题,基于模型的规划器可以帮助。对于离线强化学习,设计了一种算法,使策略能够保持在提供的专家演示集附近,以减少分布偏移,还进行了实验,证明了所提出方法在提高模拟环境中机械臂操纵任务成功率的有效性。对于安全强化学习,提出了一种用学到的动力学模型来证明安全状态的方法,实验表明,该方法可以在一组简单但具有挑战性的任务中学习一个不错的策略,没有一次安全违规,而基线算法有数百次安全违规。 https://dataspace.princeton.edu/handle/88435/dsp013197xq26c

成为VIP会员查看完整内容
46

虽然监督学习引发了深度学习的繁荣,但它有一些关键的缺点:(1)它需要大量昂贵的标记数据,(2)它从头开始解决任务,而不是像人类那样利用从先前经验中获得的知识和技能。预训练已成为一种替代和有效的范式,以克服这些缺点,其中模型首先使用容易获得的数据进行训练,然后用于解决感兴趣的下游任务,标记数据比监督学习少得多。使用未标记数据进行预训练,即自监督学习,尤其具有革命性,在不同领域取得了成功:文本、视觉、语音等。这就提出了一个有趣且具有挑战性的问题: 为什么对未标记数据进行预训练应该有助于看似不相关的下游任务?

https://dataspace.princeton.edu/handle/88435/dsp01t435gh21h **本文提出了一些工作,提出并建立了一个理论框架,以研究为什么自监督学习对下游任务有益。**该框架适用于对比学习、自回归语言建模和基于自我预测的方法。该框架的核心思想是预训练有助于学习数据的低维表示,这随后有助于用线性分类器解决感兴趣的下游任务,需要较少的标记数据。一个常见的主题是形式化用于构建自监督学习任务的无标记数据分布的理想属性。在适当的形式化下,可以表明,近似最小化正确的预训练目标可以提取在无标记数据分布中隐式编码的下游信号。最后表明,该信号可以用线性分类器从学习到的表示中解码,从而为跨任务的"技能和知识"迁移提供了一种形式化。

**引言 **

**在寻求设计智能体和数据驱动的问题解决方案的过程中,机器学习和人工智能领域在过去十年中取得了巨大的进步。**随着在具有挑战性的监督学习基准上的初步成功,如ImageNet [Deng等人,2009],深度学习的创新随后导致模型在不同领域的许多此类基准上具有超人的性能。训练这种特定于任务的模型当然令人印象深刻,并具有巨大的实用价值。然而,它有一个重要的限制,即需要大量的标记或标注数据集,而这通常是昂贵的。此外,从智能的角度来看,人们希望有更通用的模型,就像人类一样[Ahn和Brewer, 1993],可以从以前的经验中学习,将它们总结为技能或概念,并利用这些技能或概念来解决新任务,很少或没有演示。毕竟,在没有明确监督的情况下,婴儿通过观察和互动来学习很多东西。这些局限性启发了预训练的另一种范式。 ******本文的重点是使用通常大量可用的未标记数据进行预训练。使用未标记数据的想法一直是机器学习的兴趣点,特别是通过无监督学习和半监督学习。**使用深度学习对其进行的现代适应通常称为自监督学习(SSL),并已经开始通过对比学习和语言建模等思想改变机器学习和人工智能的格局。自监督学习的思想是仅使用未标记的数据构建某些任务,并训练模型在构建的任务上表现良好。这类任务通常需要模型通过从观察到的或保留的部分预测输入的未观察到的或隐藏的部分(或属性)来编码数据的结构属性[LeCun和Misra, 2021]。自监督学习在许多感兴趣的下游任务上显示出了通用性和实用性,通常比从头解决任务具有更好的样本效率,从而使我们离通用智能体的目标更近了一步。事实上,最近,像GPT-3 [Brown等人,2020]等大型语言模型已经展示了大规模出现的令人着迷的"突发行为",引发了人们对自监督预训练想法的更多兴趣。 尽管自监督学习在经验上取得了成功,并继续显示出巨大的前景,但除了粗略的直觉之外,仍然缺乏对其工作原理的良好理论理解。这些令人印象深刻的成功提出了有趣的问题,因为先验不清楚为什么在一个任务上训练的模型应该有助于另一个看似不相关的任务,即为什么在任务a上训练应该有助于任务b。虽然对SSL(和一般的深度学习)的完整理论理解是具有挑战性和难以实现的,但在任何抽象层次上理解这种现象都可能有助于开发更有原则的算法。本文的研究动机是:为什么在自监督学习任务上进行训练(使用大量未标记数据)有助于解决数据稀缺的下游任务?如何将“知识和技能”的迁移正式化? 虽然有大量关于监督学习的文献,但来自SSL任务→下游任务的泛化与监督学习中来自训练集→测试集的泛化有本质的不同。对于分类下游任务的监督学习,例如,从未知分布中采样的在输入-标签对的训练集上训练的模型,可以直接用于对从相同分布中采样的未见过的测试集的评估。这个基本的分布建立了从训练集到测试集的联系。然而,从SSL任务→下游任务的概念连接就不那么清晰了,因为SSL任务中使用的未标记数据没有关于下游标签的明确信号。这意味着在SSL任务上预训练的模型(例如,从其余部分预测输入的一部分)不能直接用于下游任务(例如,从输入预测类别标签)。因此,“知识和技能”的迁移需要使用一些标记数据进行额外的训练步骤,理想情况下比从头开始监督学习所需的少。对SSL任务→下游任务泛化的任何理论理解都需要解决这些问题:“未标记数据的内在作用是什么?以及“如何将预训练模型用于下游任务?”本文针对分类的下游任务,通过对无标签数据进行分布假设,并利用表示学习的思想,研究这些问题: (a)(分布假设)未标记的数据分布隐含地包含有关感兴趣的下游分类任务的信息。

(b)(表示学习)在适当的SSL任务上预训练的模型可以通过学习到的表示对该信号进行编码,这些表示随后可以用线性分类器解决下游分类任务。

点(a)表明,未标记的某些结构属性隐式地为我们提供了有关后续下游任务的提示,而自监督学习可以帮助从数据中梳理出这个信号。点(b)提出了一种简单且经验上有效的方法来使用预训练模型,利用模型的学习表示。本文识别并在数学上量化了未标记数据的分布属性,对于不同的SSL方法,如对比学习、语言建模和自我预测,可以证明可以学习到良好的表示。在下一节中,我们将深入研究表示学习的思想,并形式化解释为什么自监督学习有助于下游任务。

成为VIP会员查看完整内容
45

深度监督学习算法通常需要大量的标记样本才能达到令人满意的性能。为避免收集和标记过多样本带来的昂贵成本,提出自监督学习(SSL)作为无监督学习的一个子集,在没有任何人工标注标签的情况下,从大量未标记样本中学习良好的特征。SSL是近年来的研究热点,相关算法层出不穷。然而,很少有全面的研究解释不同SSL变体之间的联系以及它们是如何演变的。**文中试图从算法、理论、应用、3个主要趋势和开放问题等方面对SSL的各种方法进行综述。**首先,详细介绍了大多数SSL算法的动机,并比较了它们的共性和差异;其次,研究了与SSL相关的理论问题。讨论了SSL在图像处理、计算机视觉(CV)以及自然语言处理(NLP)等领域的典型应用;最后讨论了SSL的3个主要发展趋势和有待进一步研究的问题。在https://github.com/guijiejie/SSL上可以找到一些有用的材料。

https://arxiv.org/abs/2301.05712

1. 引言深度监督学习算法在计算机视觉(computer vision, CV)和自然语言处理(natural language processing, NLP)等领域取得了令人满意的性能。监督学习算法通常需要大量的标记样本才能获得更好的性能。由于以下两个主要原因,在ImageNet等大规模数据库上训练的模型被广泛用作预训练模型,然后进行微调以用于其他任务(表1)。首先,在不同的大规模数据库上学习到的参数提供了一个很好的起点。因此,在其他任务上训练的网络可以更快地收敛。其次,在大规模数据库上训练的网络已经学习到相关的层次特征,这有助于减少其他任务训练过程中的过拟合问题,特别是当其他任务中的示例数量较少或训练标签有限时。**不幸的是,在许多真实的数据挖掘和机器学习应用中,虽然可以找到许多未标记的训练样本,但通常只有有限的标记样本。**标记的示例通常是昂贵、困难或耗时的,因为它们需要有经验的人类注释人员的努力。例如,在web用户特征分析中,可以很容易地收集到大量的web用户特征,但标注这些数据中的非盈利用户或盈利用户需要检查、判断,甚至是耗时的跟踪任务,需要有经验的人工评估人员执行,成本非常高。另一方面,在医疗领域,无标签样本可以很容易地从常规体检中获得。然而,对如此多的病例进行逐一诊断,给医学专家带来了沉重的负担。例如,为了进行乳腺癌诊断,放射科医生必须为大量容易获得的高分辨率乳房x光片中的每个焦点分配标签。这个过程通常非常低效和耗时。此外,监督学习方法存在虚假关联和泛化误差,容易受到对抗攻击。为了缓解监督学习的两个局限性,许多机器学习范式被提出,如主动学习、半监督学习和自监督学习(SSL)。本文主要讨论SSL。SSL算法被提出,用于从大量未标记的实例中学习良好的特征,而无需使用任何人工标注。SSL的一般流程如图1所示。在自监督预训练阶段,设计预定义的前置任务供深度学习算法求解,并根据输入数据的某些属性自动生成用于前置任务的伪标签。然后,训练深度学习算法来学习解决前置任务;在自监督预训练过程完成后,学习到的模型可以作为预训练模型进一步迁移到下游任务(特别是当只有相对较少的样本可用时),以提高性能并克服过拟合问题。

由于在自监督训练期间不需要人工标注来生成伪标签,SSL算法的一个主要优点是它们可以充分利用大规模未标记数据。使用这些伪标签进行训练的自监督算法取得了有希望的结果,自监督和监督算法在下游任务中的性能差距缩小了。Asano et al.[1]表明,即使在单一图像上,SSL也可以令人惊讶地产生泛化良好的低级特征。SSL[2] -[19]最近受到越来越多的关注(图2)图灵奖获得者,在第八届国际学习表征会议(ICLR 2020)上做了主题演讲,他的演讲题目是“the future is self - supervised”。Yann LeCun和Yoshua Bengio都获得了图灵奖,他们说SSL是人类级别的智能[20]的关键。谷歌学者表示,目前已经发表了大量与SSL相关的论文。例如,2021年发表了大约18,900篇与SSL相关的论文,每天大约有52篇论文,或每小时超过两篇论文(图2)。为了防止研究人员迷失在如此多的SSL论文中,并整理最新的研究成果,我们试图及时提供这一主题的调研。

本文的其余部分组织如下。第2-7节从算法、理论、应用、三个主要趋势、开放问题和性能比较的角度介绍SSL,如表2所示。最后,第8节对调研进行了总结。

成为VIP会员查看完整内容
45

图论是一门蓬勃发展的学科,包含了许多美丽而强大的、具有广泛适用性的定理。近年来,它的爆炸式增长主要是因为它是支撑现代应用数学(特别是计算机科学、组合优化和运筹学)的基本结构,但也因为它在更应用科学中的应用越来越多。图的通用性使其成为通信网络设计和分析中不可或缺的工具。 本书的主要目的是提出一个连贯的介绍的主题,适合作为教科书的高等本科和开始研究生在数学和计算机科学。它在不牺牲其直觉和美学吸引力的情况下,提供了图论的系统处理。本书对常用的证明技巧进行了描述和说明,并提供了大量不同难度的练习,以帮助读者掌握这些技巧并加强对材料的掌握。 第二个目标是作为图论研究的介绍。为此,本书包含了一些更高级的主题,并强调了一些有趣和具有挑战性的开放问题,并进行了一些详细讨论。尽管有这些更高级的材料,这本书的组织方式是,图论的入门课程可以基于所选章节的前几节。

成为VIP会员查看完整内容
43

本书为表示提供了简明而全面的指南,这是机器学习(ML)的核心。最先进的实际应用涉及许多高维数据分析的挑战。不幸的是,许多流行的机器学习算法在面对庞大的基础数据时,在理论和实践中都无法执行。本书恰当地介绍了这个问题的解决方案。 此外,这本书涵盖了广泛的表示技术,对学者和ML从业者都很重要,如局部敏感哈希(LSH),距离度量和分数范数,主成分(PCs),随机投影和自动编码器。书中提供了几个实验结果来证明所讨论技术的有效性。 本书讨论了机器学习(ML)中最重要的表示问题。在使用机器从数据中学习类/聚类抽象时,以适合有效和高效机器学习的形式表示数据是很重要的。在本书中,我们建议涵盖各种在理论和实践中都很重要的表示技术。在当前兴趣的实际应用中,数据通常是高维的。这些应用包括图像分类、信息检索、人工智能中的问题解决、生物和化学结构分析以及社会网络分析。这种高维数据分析的一个主要问题是,大多数流行的工具,如k近邻分类器、决策树分类器,以及一些依赖于模式间距离计算的聚类算法都不能很好地工作。因此,在低维空间中表示数据是不可避免的。 常用的降维技术有以下几种:

  1. 特征选择方案:在这里,给定的特征集的一个适当子集被识别并用于学习。
  2. 特征提取方案:在学习中使用给定特征的线性或非线性组合。 一些流行的线性特征提取器基于主成分、随机投影和非负矩阵分解。我们在本书中涵盖了所有这些技术。关于用主成分子集表示数据,文献中存在一些误解。一般认为,前几个主成分是对数据进行分类的正确选择。我们在书中论证并实际地表明,这种做法可能是不正确的。

成为VIP会员查看完整内容
39

为了应对现实世界的动态变化,智能体需要在其生命周期中增量地获取、更新、积累和利用知识。这种能力被称为持续学习,为人工智能系统自适应发展提供了基础

在一般意义上,持续学习明显受到灾难性遗忘的限制,学习新任务通常会导致旧任务的性能急剧下降。除此之外,近年来出现了越来越多的进展,在很大程度上扩展了持续学习的理解和应用。人们对这一方向日益增长和广泛的兴趣表明了它的现实意义和复杂性。本文对持续学习进行了全面的调研,试图在基本设置、理论基础、代表性方法和实际应用之间建立联系。基于现有的理论和实证结果,将持续学习的一般目标总结为:在资源效率的背景下,确保适当的稳定性-可塑性权衡,以及充分的任务内/任务间泛化能力。提供了最先进的和详细的分类法,广泛分析了有代表性的策略如何解决持续学习,以及它们如何适应各种应用中的特定挑战。通过对持续学习当前趋势、跨方向前景和与神经科学的跨学科联系的深入讨论,相信这种整体的视角可以极大地促进该领域和其他领域的后续探索。

1. 引言

学习是智能系统适应环境的基础。为了应对外界的变化,进化使人类和其他生物具有很强的适应性,能够不断地获取、更新、积累和利用知识[148]、[227]、[322]。自然,我们期望人工智能(AI)系统以类似的方式适应。这激发了持续学习的研究,其中典型的设置是逐一学习一系列内容,并表现得就像同时观察到的一样(图1,a)。这些内容可以是新技能、旧技能的新示例、不同的环境、不同的背景等,并包含特定的现实挑战[322],[413]。由于内容是在一生中逐步提供的,因此在许多文献中,持续学习也被称为增量学习或终身学习,但没有严格的区分[70],[227]。

与传统的基于静态数据分布的机器学习模型不同,持续学习的特点是从动态数据分布中学习。**一个主要的挑战被称为灾难性遗忘[291],[292],对新分布的适应通常会导致捕获旧分布的能力大大降低。**这种困境是学习可塑性和记忆稳定性权衡的一个方面:前者过多会干扰后者,反之亦然。除了简单地平衡这两方面的“比例”外,持续学习的理想解决方案应该获得强大的泛化能力,以适应任务内部和任务之间的分布差异(图1,b)。作为一个朴素的基线,重新训练所有旧的训练样本(如果允许)可以轻松解决上述挑战,但会产生巨大的计算和存储开销(以及潜在的隐私问题)。事实上,持续学习的主要目的是确保模型更新的资源效率,最好接近只学习新的训练样本。

**许多努力致力于解决上述挑战,可以在概念上分为五组(图1,c):**参考旧模型添加正则化项(基于正则化的方法);逼近和恢复旧数据分布(基于回放的方法);显式操作优化程序(基于优化的方法);学习鲁棒和良好泛化的表示(基于表示的方法);以及使用正确设计的体系结构构建任务自适应参数(基于体系结构的方法)。该分类法扩展了常用分类法的最新进展,并为每个类别提供了细化的子方向。总结了这些方法是如何实现所提出的一般目标的,并对其理论基础和典型实现进行了广泛的分析。特别是,这些方法是紧密联系的,例如正则化和重放最终纠正优化中的梯度方向,并且具有高度的协同性,例如,重放的效果可以通过从旧模型中提取知识来提高。 现实应用对持续学习提出了特殊的挑战,可以分为场景复杂性和任务特异性。对于前者,例如,在训练和测试中可能缺少任务oracle(即执行哪个任务),训练样本可能是小批量甚至一次引入的。由于数据标记的成本和稀缺性,持续学习需要在少样本、半监督甚至无监督的场景中有效。对于后者,虽然目前的进展主要集中在视觉分类,但其他视觉领域(如目标检测、语义分割和图像生成)以及其他相关领域(如强化学习(RL)、自然语言处理(NLP)和伦理考虑)正在受到越来越多的关注,其机遇和挑战。

**考虑到持续学习的兴趣显著增长,我们相信这项最新和全面的调研可以为后续的工作提供一个整体的视角。**尽管有一些关于持续学习的早期调研,覆盖面相对较广[70],[322],但近年来的重要进展并未被纳入其中。相比之下,最新的调研通常只整理持续学习的局部方面,关于其生物学基础[148],[156],[186],[227],视觉分类的专门设置[85],[283],[289],[346],以及NLP[37],[206]或RL[214]中的扩展。据我们所知,这是第一个系统总结持续学习的最新进展的调研。基于这些优势,我们就当前趋势、跨方向前景(如扩散模型、大规模预训练、视觉转换器、具体AI、神经压缩等)以及与神经科学的跨学科联系,深入讨论了持续学习。

主要贡献包括:

(1) 对持续学习进行了最新而全面的综述,以连接理论、方法和应用的进步;

(2) 根据现有的理论和实证结果,总结了持续学习的一般目标,并对具有代表性的策略进行了详细的分类; (3) 将现实应用的特殊挑战分为场景复杂性和任务特殊性,并广泛分析了持续学习策略如何适应这些挑战; (4)深入探讨了当前研究趋势和发展方向,以期为相关领域后续工作提供参考本文的组织如下: 在第2节中,我们介绍了持续学习的设置,包括其基本公式,典型场景和评估指标。在第3节中,我们总结了一些针对其一般目标的持续学习的理论努力。在第4节中,我们对具有代表性的策略进行了最新的和详细的分类,分析了它们的动机和典型的实现。在第5节和第6节中,我们描述了这些策略如何适应场景复杂性和任务特异性的现实挑战。在第7节中,我们提供了当前趋势的讨论,交叉方向的前景和神经科学的跨学科联系。

在本节中,我们详细介绍了代表性持续学习方法的分类(参见图3和图1,c),并广泛分析了它们的主要动机、典型实现和经验属性。

Regularization-based 方法

该方向的特点是添加显式正则项来平衡新旧任务,这通常需要存储旧模型的冻结副本以供参考(见图4)。根据正则化的目标,这类方法可以分为两类。

Replay-based 方法

将近似和恢复旧数据分布的方法分组到这个方向(见图5)。根据回放的内容,这些方法可以进一步分为三个子方向,每个子方向都有自己的挑战。

Optimization-based 方法

持续学习不仅可以通过向损失函数添加额外的项(例如正则化和重放)来实现,还可以通过显式地设计和操作优化程序来实现。

Representation-based 方法

将创建和利用持续学习表示优势的方法归为这一类。除了早期通过元训练[185]获得稀疏表示的工作外,最近的工作试图结合自监督学习(SSL)[125]、[281]、[335]和大规模预训练[295]、[380]、[456]的优势,以改进初始化和持续学习中的表示。请注意,这两种策略密切相关,因为预训练数据通常数量巨大且没有明确的标签,而SSL本身的性能主要通过对(一系列)下游任务进行微调来评估。下面,我们将讨论具有代表性的子方向。

Architecture-based 方法

上述策略主要集中在学习所有具有共享参数集的增量任务(即单个模型和一个参数空间),这是导致任务间干扰的主要原因。相反,构造特定于任务的参数可以显式地解决这个问题。以往的工作通常根据网络体系结构是否固定,将该方向分为参数隔离和动态体系结构。本文专注于实现特定任务参数的方式,将上述概念扩展到参数分配、模型分解和模块化网络(图8)。

成为VIP会员查看完整内容
40
登陆后查看更多精品内容
VIP会员
本周荟萃主题
区块链
区块链(Blockchain)是由节点参与的分布式数据库系统,它的特点是不可更改,不可伪造,也可以将其理解为账簿系统(ledger)。它是比特币的一个重要概念,完整比特币区块链的副本,记录了其代币(token)的每一笔交易。通过这些信息,我们可以找到每一个地址,在历史上任何一点所拥有的价值。
深度学习
机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。
机器学习
“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。”

——中文维基百科
强化学习
强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。
推荐系统
推荐系统,是指根据用户的习惯、偏好或兴趣,从不断到来的大规模信息中识别满足用户兴趣的信息的过程。推荐推荐任务中的信息往往称为物品(Item)。根据具体应用背景的不同,这些物品可以是新闻、电影、音乐、广告、商品等各种对象。推荐系统利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。随着电子商务规模的不断扩大,商品个数和种类快速增长,顾客需要花费大量的时间才能找到自己想买的商品。这种浏览大量无关的信息和产品过程无疑会使淹没在信息过载问题中的消费者不断流失。为了解决这些问题,个性化推荐系统应运而生。个性化推荐系统是建立在海量数据挖掘基础上的一种高级商务智能平台,以帮助电子商务网站为其顾客购物提供完全个性化的决策支持和信息服务。
卷积神经网络
在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。基于它们的共享权重架构和平移不变性特征,它们也被称为位移不变或空间不变的人工神经网络(SIANN)。它们在图像和视频识别,推荐系统,图像分类,医学图像分析,自然语言处理,和财务时间序列中都有应用。
计算机网络
计算机网络( Computer Networks )指将地理位置不同的多台计算机及其外部设备,通过通信线路连接起来,在网络操作系统及网络通信协议的管理和协调下,实现资源共享和信息传递的计算机系统。
命名实体识别
命名实体识别(NER)(也称为实体标识,实体组块和实体提取)是信息抽取的子任务,旨在将非结构化文本中提到的命名实体定位和分类为预定义类别,例如人员姓名、地名、机构名、专有名词等。
机器翻译
机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。
计算机视觉
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。
微信扫码咨询专知VIP会员