来自巴斯大学计算机科学教授Simon J.D. Prince撰写的《理解深度学习》新书,共有19章,从机器学习基础概念到深度学习各种模型,包括最新的Transformer和图神经网络,比较系统全面,值得关注。

深度学习的历史在科学界是不寻常的。一小群科学家的坚持不懈,在一个看似没有希望的领域工作了25年,已经彻底改变了一个领域,并极大地影响了社会。通常,当研究人员调查科学或工程的一个深奥和明显不切实际的角落时,它仍然是深奥和不切实际的。然而,这是一个明显的例外。尽管普遍存在怀疑,但Yoshua Bengio、Geoff Hinton、Yann LeCun等人的系统努力最终取得了回报。本书的标题是“理解深度学习”,以区别于涵盖编码和其他实用方面的书籍。**本文主要介绍深度学习的基础思想。**本书的第一部分介绍了深度学习模型,并讨论了如何训练它们、衡量它们的性能并提高性能。下一部分将讨论专门用于图像、文本和图形数据的体系结构。这些章节只需要线性代数、微积分和概率论的入门,任何数量学科的二年级本科生都应该能读懂。本书后续部分将讨论生成模型和强化学习。这些章节需要更多的概率和微积分知识,目标是更高级的学生。这个标题在一定程度上也是一个笑话——在写作时,没有人真正理解深度学习。现代深度网络学习的分段线性函数的区域比宇宙中原子的数量还要多,并且可以用比模型参数更少的数据示例进行训练。显然,我们应该能够可靠地拟合这些函数,也不应该很好地泛化到新数据。最后一章讨论这些以及其他尚未完全理解的方面。您的时间是宝贵的,我努力策划和呈现材料,以便您可以尽可能高效地理解它。每一章的主要内容是对最重要的思想的简要描述,并附有插图。附录回顾了所有的数学先决条件,不需要参考外部材料。对于希望深入研究的读者,每一章都有相关的问题、Python笔记,并总结了该领域的历史和最新研究。写一本书是一个孤独的、艰难的、多年的过程,只有当它被广泛采用时才有价值。如果您喜欢阅读本文或有改进建议,请通过附带的网站与我联系。我很乐意听到你的想法,这些想法将为后续的版本提供信息和动力。

**人工智能(AI)关注的是构建模拟智能行为的系统。**它包含了广泛的方法,包括基于逻辑、搜索和概率推理的方法。机器学习是人工智能的一个子集,它通过将数学模型拟合到观察到的数据来学习做出决策。这个领域经历了爆炸式的增长,现在(错误地)几乎是AI这个术语的同义词。深度神经网络是机器学习模型的一种,当该模型对数据进行拟合时,这被称为深度学习。在撰写本文时,深度网络是最强大、最实用的机器学习模型,在日常生活中经常遇到。使用自然语言处理算法翻译另一种语言的文本,使用计算机视觉系统在互联网上搜索特定对象的图像,或通过语音识别界面与数字助理交谈,都是很常见的。所有这些应用程序都是由深度学习驱动的。正如标题所示,本书旨在帮助该领域的新读者理解深度学习背后的原理。这本书既不太理论化(没有证明),也不太实用(几乎没有代码)。我们的目标是解释潜在的想法;在阅读完这本书后,读者将能够将深度学习应用于没有现有成功秘诀的新颖情况。机器学习方法大致可以分为三个领域:有监督、无监督和强化学习。在本书写作时,这三个领域的前沿方法都依赖于深度学习(图1 - 1)。本章从较高的层次描述了这三个领域,本书的组织结构也大致反映了这种分类法。

**本书的结构与这篇引言的结构一致。第2 ~ 9章介绍了监督学习流程。本文介绍了浅层和深层神经网络,并讨论了如何训练它们,测量和提高它们的性能。**第10-13章描述了深度神经网络的常见架构变体,包括卷积网络、残差连接和transformer。这些架构用于监督、无监督和强化学习。第14 ~ 18章使用深度神经网络解决无监督学习问题。我们用一章的时间介绍四个现代深度生成模型:生成对抗网络、变分自动编码器、归一化流和扩散模型。第19章简要介绍了深度强化学习。这是一个可以单独写成一本书的话题,因此这里的论述必然是肤浅的,但对于不熟悉该领域的读者来说,这是一个很好的起点。尽管这本书的标题是,深度学习的一些方面仍然鲜为人知。第20章提出了一些基本问题。为什么深度网络如此容易训练?为什么它们的泛化能力这么好?为什么他们需要这么多参数?它们需要很深吗?在此过程中,探索了意想不到的现象,如损失函数的结构、双下降、grokking和彩票。 * Chapter 1 - 导论 Introduction * Chapter 2 - 监督学习 Supervised learning * Chapter 3 - 浅层神经网络 Shallow neural networks * Chapter 4 - 深度神经网络 Deep neural networks * Chapter 5 - 损失函数 Loss functions * Chapter 6 - 训练模型 Training models * Chapter 7 - 梯度与初始化 Gradients and initialization * Chapter 8 - 度量性能 Measuring performance * Chapter 9 - 正则化 Regularization * Chapter 10 - 卷积网络 Convolutional nets * Chapter 11 - 残差网络 Residual networks and BatchNorm * Chapter 12 - Transformers * Chapter 13 - 图神经网络 Graph neural networks * Chapter 14 - 无监督学习Unsupervised learning * Chapter 15 - 生成对抗网络 Generative adversarial networks * Chapter 16 - Normalizing flows * Chapter 17 - 变分自编码器 Variational auto-encoders * Chapter 18 - 扩散模型 Diffusion models * Chapter 19 - 深度强化学习 Deep reinforcement learning * Chapter 20 - 为什么深度学习work?Why does deep learning work?

成为VIP会员查看完整内容
123

许多行业都渴望将AI和数据驱动技术集成到他们的系统和运营中。但要建立真正成功的人工智能系统,你需要牢固掌握基础数学。这份全面的指南弥补了人工智能的潜力和应用与其相关数学基础之间的表述差距。

https://www.oreilly.com/library/view/essential-math-for/9781098107628/

以沉浸式和对话的风格,这本书调研了在人工智能领域蓬勃发展所需的数学,专注于现实世界的应用和最先进的模型,而不是密集的学术理论。您将探索诸如回归、神经网络、卷积、优化、概率、图、随机游走、马尔可夫过程、微分方程等主题,在面向计算机视觉、自然语言处理、生成模型、强化学习、运筹学和自动化系统的独家人工智能背景下。本书面向广泛的读者,包括工程师、数据科学家、数学家、科学家和处于职业生涯早期的人,为在人工智能和数学领域取得成功奠定了坚实的基础。

你将能够: * 轻松地说人工智能、机器学习、数据科学和数学的语言 * 将机器学习模型和自然语言模型统一在一个数学结构下 * 轻松处理图和网络数据 * 探索真实数据,可视化空间变换,降低维度,处理图像 * 决定在不同的数据驱动项目中使用哪些模型 * 探索人工智能的各种含义和限制

成为VIP会员查看完整内容
83

ChatGPT,人工智能的旷世巨作。ChatGPT是一种聊天机器人软件,OpenAI于2022年11月推出的聊天机器人,具备人类语言交互外复杂的语言工作,包括自动文本生成、自动问答、自动摘要等多重功能,应用场景广阔,相较于上个版本更像人类一样聊天交流。OpenAI除了ChatGPT还包括Dall·E2、Whisper等项目分别是自动绘图、自然语言翻译等软件。OpenAI的商业模式即API接口收费,可根据不同项目需求进行收费,我们认为其商业模式属于底层模型开放性标准化SAAS服务模式。我国仍处于初期阶段,以辅助生成内容服务为主,我们认为未来有望形成相关SAAS模式。

  ChatGPT促使AIGC快速商业化发展。GPT系列是AIGC的一种商业化方向,目前AIGC已经实现商业化的方向有AI写作、AI作图、AI底层建模,未来AI生成视频和动画领域有望快速商业化发展。AIGC也被认为是继UGC、PGC/UGC之后的新型内容生产方式,有望解决PGC/UGC创作质量参差不齐或是降低其有害性内容传播等问题,有望在实现创意激发,提升内容多样性的同时降本增效,并大规模使用。目前我国已经有商业化例如百度AIGC数字人主播度晓晓、百家号TTV等。     AIGC蓬勃发展,相关厂商有望受益。我们认为AIGC的出世会产生革命性的影响,同时有望赋能千行百业。我们认为受益厂商分为三类,分别是:1、AI处理器厂商,具备自研AI处理器的厂商可以为AIGC的神经网络提供算力支撑,AI处理器芯片可以支持深度神经网络的学习和加速计算,相比于GPU和CPU拥有成倍的性能提升和极低的耗电水平;2、AI商业算法商业落地的厂商,原因是AI算法的龙头厂商在自然语言处理、机器视觉、数据标注方面都具有先发优势和技术领先性;3、AIGC相关技术储备的应用厂商,相关厂商有望在降本增效的同时实现创意激发、提升内容多样性并打开海量市场。

成为VIP会员查看完整内容
75

《图:理论和算法》这本书是一本现代文章的集合,介绍了几种基于图的方法和算法。它还涵盖了与图的矩阵表示有关的重要理论方面,如拉普拉斯矩阵和距离矩阵,可用于解决诸如哈密顿矩阵和最短路径等问题,以及寻找最小生成树和匹配模式。

图论首先由Leonhard Euler在他对Königsberg问题的七桥分析中提出并引入(Euler, 1741;Newman等人,1953)。为解决该问题,Euler将每个地块替换为一个抽象的顶点(图节点),将每个桥梁替换为一个抽象的连接(图边)。如今,图可以用来表示不同类型的数据,因此在许多研究领域有着广泛的应用。例如,图形已被用于表示网络结构、分子模型、物种迁移模式、自然语言语法结构等(例如Gross和Yellen, 2009;Foulds, 2012)。

https://www.perlego.com/book/2076412/graphs-theory-and-algorithms-pdf

成为VIP会员查看完整内容
61

本书使用数学和Python代码的新颖集成,说明了连接概率、统计和机器学习的基本概念,使读者不仅可以使用现代Python模块使用统计和机器学习模型,而且还了解它们的相对优点和缺点。为了将理论概念与实际实现清晰地联系起来,作者提供了许多经过设计的示例以及“编程技巧”,鼓励读者编写高质量的Python代码。整个文本,包括所有的图和数值结果,都可以使用所提供的Python代码进行重现,从而使读者能够在自己的计算机上使用相同的代码进行实验。

现代Python模块,如Pandas、Sympy、Scikit-learn、Statsmodels、Scipy、Xarray、Tensorflow和Keras,用于实现和可视化重要的机器学习概念,如偏差/方差权衡、交叉验证、可解释性和正则化。许多抽象的数学思想,如概率的收敛模式,都用具体的数值例子加以解释和说明。这本书适合任何具有概率论、统计学或机器学习本科水平经验并具有Python编程基本知识的人。

成为VIP会员查看完整内容
51

《数据科学中的数学方法》介绍了一种基于网络分析的新方法,将大数据整合到常微分方程和偏微分方程的框架中进行数据分析和预测。数学伴随着数据科学中出现的例子和问题,以演示高等数学,特别是数据驱动的微分方程。章节还涵盖网络分析,常微分方程和偏微分方程基于最近发表和未发表的结果。最后,本书介绍了一种基于网络分析的新方法,将大数据整合到常微分方程和偏微分方程的框架中进行数据分析和预测。在数据科学中有许多关于数学方法的书籍。目前,所有这些相关的书籍主要集中在线性代数,优化和统计方法。然而,网络分析、常微分方程模型和偏微分方程模型在数据科学中发挥着越来越重要的作用。随着COVID-19临床、流行病学和社会数据的空前丰富,数据驱动的微分方程模型在感染预测和分析方面变得更加有用。 https://www.elsevier.com/books/mathematical-methods-in-data-science/ren/978-0-443-18679-0

成为VIP会员查看完整内容
53

**本书收集了最近的研究工作,解决了关于改进GANs的学习过程和泛化的理论问题,以及GANs在现实生活各个领域的最新应用。**近年来,对抗性学习引起了国内外机器学习领域的广泛关注。生成对抗网络(Generative adversarial networks, GANs)作为对抗学习的主要方法,通过引入极大极小学习的概念,使得两个网络在学习过程中相互竞争,从而获得了巨大的成功和流行。它们的关键能力是生成新数据和复制可用的数据分布,这在许多实际应用中都是需要的,特别是在计算机视觉和信号处理中。本书面向人工智能领域的学者、从业者和研究学生,希望了解GANs理论发展及其应用的最新进展。

http://finelybook.com/generative-adversarial-learning/

成为VIP会员查看完整内容
53

本书旨在为有兴趣在数据科学和分析以及一般统计分析领域使用他们的技能的毕业生和商业从业人员在统计学方面提供帮助。一方面,本书旨在为那些上过一些统计学课程,但在日常工作中不一定使用过统计学的读者提供复习。另一方面,这些材料也适合第一次接触Python统计工作的感兴趣的读者。使用Python进行统计和数据可视化旨在通过使读者了解推断统计学背后的思想,并开始制定假设,这些假设构成统计分析、商业分析、机器学习和应用机器学习中的应用和算法的基础,从而从头开始构建统计知识。本书从Python编程和数据分析的基础知识开始,为统计学方法和假设检验打下坚实的基础,这在许多现代应用中都很有用。 https://www.routledge.com/Statistics-and-Data-Visualisation-with-Python/Rogel-Salazar/p/book/9780367744519#:~:text=Statistics%20and%20Data%20Visualisation%20with%20Python%20aims%20to%20build%20statistical,in%20statistical%20analysis%2C%20business%20analytics%2C 目录内容:

  1. Data, Stats and Stories - An Introduction
  2. Python Programming Primer
  3. Snakes, Bears & Other Numerical Beasts: NumPy, SciPy & Pandas
  4. The Measure of All Things - Statistics
  5. Definitely Maybe: Probability and Distributions
  6. Alluring Arguments and Ugly Facts - Statistical Modelling and Hypothesis Testing
  7. Delightful Details - Data Visualisation
  8. Dazzling Data Designs - Creating Charts A. Variance: Population v Sample B. Sum of First n Integers C. Sum of Squares of the First n Integers D. The Binomial Coefficient E. The Hypergeometric Distribution F. The Poisson Distribution G. The Normal Distribution H. Skewness and Kurtosis I. Kruskal-Wallis Test - No Ties

成为VIP会员查看完整内容
56

2022年,从引爆AI作画领域的DALL-E 2、Stable Diffusion等AI模型,到以ChatGPT为代表的接近人类水平的对话机器人,AIGC不断刷爆网络,其强大的内容生成能力给人们带来了巨大的震撼。学术界和产业界也都形成共识:AIGC绝非昙花一现,其底层技术和产业生态已经形成了新的格局。

就内容生产而言,AIGC作为新的生产力引擎,让我们从过去的PGC、UGC,已经不可避免地进入AIGC时代。AIGC代表着AI技术从感知、理解世界到生成、创造世界的跃迁,正推动人工智能迎来下一个时代。 经过了2022年的预热,2023年AIGC领域将迎来更大发展。AIGC生成内容的类型不断丰富、质量不断提升,也将有更多的企业积极拥抱AIGC。在这个背景下,腾讯研究院正式发布**《AIGC发展趋势报告2023:迎接人工智能的下一个时代》**。报告从技术发展和产业生态、应用趋势、治理挑战等维度,对AIGC的发展趋势进行了深入思考。 本文为报告核心内容摘要(文末附下载):

AIGC技术和产业生态

迎来发展快车道

AIGC的大爆发不仅有赖于AI技术的突破创新,还离不开产业生态快速发展的支撑。在技术创新方面,生成算法、预训练模型、多模态技术等AI技术汇聚发展,为AIGC的爆发提供了肥沃的技术土壤。

** **

图:AIGC技术累积融合 **第一,基础的生成算法模型不断突破创新。**比如为人熟知的GAN、Transformer、扩散模型等,这些模型的性能、稳定性、生成内容质量等不断提升。得益于生成算法的进步,AIGC现在已经能够生成文字、代码、图像、语音、视频、3D物体等各种类型的内容和数据。 **第二,预训练模型,也即基础模型、大模型,引发了AIGC技术能力的质变。**虽然过去各类生成模型层出不穷,但是使用门槛高、训练成本高、内容生成简单和质量偏低,远远不能满足真实内容消费场景中的灵活多变、高精度、高质量等需求。而预训练模型能够适用于多任务、多场景、多功能需求,能够解决以上诸多痛点。预训练模型技术也显著提升了AIGC模型的通用化能力和工业化水平,同一个AIGC模型可以高质量地完成多种多样的内容输出任务,让AIGC模型成为自动化内容生产的“工厂”和“流水线”。正因如此,谷歌、微软、OpenAI等企业纷纷抢占先机,推动人工智能进入预训练模型时代。 **第三,多模态技术推动了AIGC的内容多样性,进一步增强了AIGC模型的通用化能力。**多模态技术使得语言文字、图像、音视频等多种类型数据可以互相转化和生成。比如CLIP模型,它能够将文字和图像进行关联,如将文字“狗”和狗的图像进行关联,并且关联的特征非常丰富。这为后续文生图、文生视频类的AIGC应用的爆发奠定了基础。 未来,算法的进步将带来更多激动人心的应用,语言模型会得到进一步发展,可以自我持续学习的多模态AI将日益成为主流,这些因素会进一步推动AIGC领域的蓬勃发展。 **在产业生态方面,AIGC领域正在加速形成三层产业生态并持续创新发展,正走向模型即服务(MaaS)的未来。**目前,AIGC产业生态体系的雏形已现,呈现为上中下三层架构。

** **

第一层是基础层,以预训练模型为基础搭建的AIGC技术基础设施层。在国外,以OpenAI、Stability.ai为代表,通过受控API、开源等方式输出模型能力。 第二层是中间层,是在预训练模型基础上,通过专门的调试和训练,快速抽取形成垂直化、场景化、定制化的小模型和应用工具层,可以实现工业流水线式部署,同时兼具按需使用、高效经济的优势。比如,知名的二次元画风生成模型Novel-AI,以及各种风格的角色生成器等,就是基于Stable Diffusion开源进行的二次开发。随着AIGC模型加速成为新的技术平台,模型即服务(Model-as-a-Service,MaaS)开始成为现实,预计将对商业领域产生巨大影响。 第三层是应用层,依托底层模型和中间层的垂直模型,各厂商进一步开放面向C端和B端用户的各种各样的AIGC产品和服务,满足海量用户的内容创建和消费需求。例如群聊机器人、文本生成软件、头像生成软件等AIGC消费工具。 目前,从提供预训练的AI大模型的基础设施层公司到专注打造垂直领域内AIGC工具的中间层公司、再到直接面对消费者和终端用户提供产品和服务的应用层公司,美国围绕AIGC生长出繁荣的生态,技术创新引发的应用创新浪潮迭起;中国也有望凭借领先的AIGC技术赋能千行百业。

AIGC在消费互联网、产业互联网

和社会价值领域持续产生变革性影响

AIGC领域目前呈现AIGC的内容类型不断丰富、内容质量不断提升、技术的通用性和工业化水平越来越强等趋势,这使得AIGC在消费互联网领域日趋主流化,涌现了写作助手、AI绘画、对话机器人、数字人等爆款级应用,支撑着传媒、电商、娱乐、影视等领域的内容需求。目前AIGC也正在向产业互联网、社会价值领域扩张应用。**

**

图:AIGC应用现状概览(引用自红杉资本) **在消费互联网领域,AIGC牵引数字内容领域的全新变革。**目前AIGC的爆发点主要是在内容消费领域,已经呈现百花齐放之势。AIGC生成的内容种类越来越丰富,而且内容质量也在显著提升,产业生态日益丰富。这其中有三个值得关注的趋势: **第一,AIGC有望成为新型的内容生产基础设施,塑造数字内容生产与交互新范式,持续推进数字文化产业创新。**过去AI在内容消费领域的作用主要体现在推荐算法成为了新型的传播基础设施。推荐算法对数字内容传播,短视频为主的数字内容新业态发展,起到了颠覆式的变革作用。而现在,随着AIGC生成的内容种类越来越丰富,内容的质量不断提升,AIGC将作为新型的内容生产基础设施对既有的内容生成模式产生变革影响。 **第二,AIGC的商业化应用将快速成熟,市场规模会迅速壮大。**当前AIGC已经率先在传媒、电商、影视、娱乐等数字化程度高、内容需求丰富的行业取得重大发展,市场潜力逐渐显现。比如,在广告领域,腾讯混元AI大模型能够支持广告智能制作,即利用AIGC将广告文案自动生成为广告视频,大大降低了广告视频制作成本。巨大的应用前景将带来市场规模的快速增长,根据6pen预测,未来五年10%-30%的图片内容由AI参与生成,有望创造超过600亿以上市场规模。也有国外商业咨询机构预测,2030年AIGC市场规模将达到1100亿美元。 **第三,AIGC还将作为生产力工具,不断推动聊天机器人、数字人、元宇宙等领域发展。**AIGC技术让聊天机器人接近人类水平日益成为现实,当前以ChatGPT为代表的聊天机器人已经在刺激搜索引擎产业的神经,未来人们获取信息是否会更多通过聊天机器人而非搜索引擎?这已经使谷歌等公司面临的巨大压力。AIGC也在大大提升数字人的制作效能,并且使其更神似人。比如腾讯AI LAB的虚拟歌手AI艾灵,能够基于AIGC实现作词和歌曲演唱。在元宇宙领域,AIGC在构建沉浸式空间环境、提供个性化内容体验、打造智能用户交互等方面发挥重要作用。比如,扎克伯格在元宇宙的岛屿上,可以通过发出语音命令生成创造海滩、变换天气,添加不同的场景等。只有借助AGIC,元宇宙才可能以低成本、高效率的方式满足海量用户的不同内容需求。 **在产业互联网领域,基于AIGC技术的合成数据(synthetic data)迎来重大发展,合成数据将牵引人工智能的未来。**MIT科技评论将AI合成数据列为2022年10大突破性技术之一;Gartner也预测称,到2030年合成数据将彻底取代真实数据,成为训练AI的主要数据来源。

图:合成数据发展预测(来源:Gartner) 合成数据的用途是成为真实世界数据的廉价替代品,用来训练、测试、验证AI模型。AIGC技术的持续创新,让合成数据迎来新的发展契机,开始迸发出更大的产业发展和商业应用活力。这主要体现在以下四个方面: **第一,合成数据为AI模型训练开发提供强大助推器,推动实现AI 2.0。**过去用真实世界数据训练AI模型,存在数据采集和标注的成本高昂,数据质量较难保障、数据多样化不足、隐私保护挑战等多方面问题。而合成数据可以很好的解决这些问题。使用合成数据不仅能更高效地训练AI模型,而且可以让AI在合成数据构建的虚拟仿真世界中自我学习、进化,极大扩展AI的应用可能性。从某种意义上也可以说合成数据让AI模型训练从1.0阶段发展到2.0阶段。 **第二,合成数据助力破解AI“深水区”的数据难题,持续拓展产业互联网应用空间。**目前,合成数据正迅速向交通、金融、医疗、零售、工业等诸多产业领域拓展应用,帮助破解产业互联网应用中的数据难题。比如,腾讯自动驾驶团队研发的仿真系统TAD SIM可以自动生成各种交通场景数据,助力自动驾驶系统测试、开发。在医疗领域,美国国立卫生研究院和合成数据服务商合作,基于其COVID-19病人病历数据库,合成了不具有可识别性的替代数据,可供世界范围内的研究人员自由分享和使用。

图:腾讯自动驾驶数字孪生仿真平台

**第三,正是由于合成数据对人工智能未来发展的巨大价值,合成数据正加速成为一个新产业赛道,科技大厂和创新企业纷纷抢先布局。**目前,全球合成数据创业企业也已经达到100家,英伟达、亚马逊、微软等头部科技企业也在加速布局,涌现了合成数据即服务(SDaaS,synthetic data as a service)这一全新商业模式。

**第四,合成数据加速构建AI赋能、数实融合的大型虚拟世界。**合成数据指向的终极应用形态是借助游戏引擎、3D图形、AIGC技术构建的数实融合的大型虚拟世界。基于合成数据构建的大型虚拟世界,为测试、开发新的人工智能应用,提供了一个安全、可靠、高效以及最重要的是——低成本的、可重复利用的环境,将成为AI数实融合的关键载体,包括为AI开发提供数据和场景、试验田等。比如腾讯开悟的AI开放研究环境,已经吸引了国内外众多决策智能领域的研究团队使用。

**在社会价值领域,AIGC也在助力可持续社会价值的实现。**比如,在医疗健康方面,AI语音生成帮助病人“开口说话”。语音合成软件制造商Lyrebird为渐冻症患者设计的语音合成系统实现“声音克隆”,帮助患者重新获得“自己的声音”。AI数字人也能帮助老年痴呆症患者与他们可能记得的年轻面孔或者逝去的亲人互动。此外,AIGC也可以用于文物修复,助力文物保护传承。腾讯公司利用360度沉浸式展示技术、智能音视频技术、人工智能等技术手段,对敦煌古壁画进行数字化分析与修复。在国外,DeepMind合作开发的深度神经网络模型Ithaca可以修复残缺的历史碑文。

图:腾讯利用AIGC技术手段,助力敦煌古壁画修复 总之,随着AIGC模型的通用化水平和工业化能力的持续提升,AIGC的根本影响在于,将极大降低内容生产和交互的门槛和成本,有望带来一场自动化内容生产与交互变革,引起社会的成本结构的重大改变,进而在各行各业引发巨震。未来,“AIGC+”将持续大放异彩,深度赋能各行各业高质量发展。

以可信AIGC** 积极应对科技治理问题与挑战,****拥抱人工智能的下一个时代**发展总是与挑战并生,AIGC的发展也面临许多科技治理问题的挑战。目前,主要是知识产权、安全、伦理和环境四个方面的挑战。

首先,AIGC引发的新型版权侵权风险,已经成为整个行业发展所面临的紧迫问题。因版权争议,国外艺术作品平台ArtStation上的画师们掀起了抵制AIGC生成图像的活动。其次,安全问题始终存在于科技发展应用之中。在AIGC中,主要表现为信息内容安全、AIGC滥用引发诈骗等新型违法犯罪行为,以及AIGC的内生安全等。较为著名的案例是,诈骗团队利用AIGC换脸伪造埃隆·马斯克的视频,半年诈骗价值超过2亿人民币的数字货币。再次,算法歧视等伦理问题依然存在。比如,DALL·E 2具有显著的种族和性别刻板印象。最后是环境影响,AIGC模型训练消耗大量算力,碳排放量惊人。此前就有研究表明,单一机器学习模型训练所产生的碳排放,相当于普通汽车寿命期内碳排放量的5倍。

图:腾讯优图实验室推出FaceIn人脸防伪产品,能够自动检测精准识别视频、图像中是否应用人脸伪造技术 **为了应对以上挑战,面向人工智能的下一个时代,人们需要更加负责任地、以人为本地发展应用AIGC技术,打造可信AIGC生态。**面对AIGC技术应用可能带来的风险挑战,社会各界需要协同参与、共同应对,通过法律、伦理、技术等方面的多元措施支持构建可信AI生态。在立法方面,网信办等三部门出台的《互联网信息服务深度合成管理规定》针对深度合成技术服务提出的要求和管理措施,诸如禁止性要求、标识要求、安全评估等,亦适用于AIGC。接下来,需要着重从以下方面持续推进AIGC的政策和治理。

其一,政府部门需要结合AIGC技术的发展应用情况,制定并明晰AIGC的知识产权与数据权益保护规则。目前,AIGC的知识产权与数据权益保护规则的不明确,在某种程度上导致甚至加剧了AI领域的乱象。

其二,研发应用AIGC技术的主体需要积极探索自律管理措施,例如,秉持不作恶、科技向善等目的,制定适宜的政策(消极要求和积极要求),采取控制和安全措施保障AIGC的安全可控应用,采取内容识别、内容溯源等技术确保AIGC的可靠来源。

其三,打造安全可信的AIGC应用,需要深入推进AI伦理治理。例如,行业组织可以制定可信AIGC的伦理指南,更好地支持AIGC健康可持续发展;AIGC领域的创新主体需要考虑通过伦理委员会等方式,推进落实AI风险管理、伦理审查评估等,在AIGC应用中实现“伦理嵌入设计”(ethics by design)。

其四,社会各界需要携手应对AIGC领域的能源消耗问题,推行绿色AI的发展理念,致力于打造绿色可持续、环境友好型的AI模型,实现智能化与低碳化融合发展。

未来已来,让我们拥抱AIGC,拥抱人工智能的下一个时代,打造更美好的未来。

****


成为VIP会员查看完整内容
51

深度强化学习的最新进展已经证明了其在解决现实问题方面的巨大潜力。然而,有两个问题阻碍了强化学习的应用:效率和效果。**本文研究如何通过设计基于深度模型的算法来提高强化学习的效率和效果。****对动力学模型的访问使算法能够进行规划,这是顺序决策的关键。本文主要围绕在线强化学习、神经网络在深度强化学习中的表达能力、离线强化学习和安全强化学习四个主题展开研究。**对于在线强化学习,本文提出了一个具有理论保证的算法框架,利用在学习环境中学习到的策略在真实环境中可以获得的性能下界。通过实验验证了所提方法的有效性。对于深度强化学习中神经网络的表达能力,证明了在某些情况下,基于模型的方法比无模型的方法需要更少的表示能力来近似接近最优的策略,并根据经验表明,这在模拟机器人环境中可能是一个问题,基于模型的规划器可以帮助。对于离线强化学习,设计了一种算法,使策略能够保持在提供的专家演示集附近,以减少分布偏移,还进行了实验,证明了所提出方法在提高模拟环境中机械臂操纵任务成功率的有效性。对于安全强化学习,提出了一种用学到的动力学模型来证明安全状态的方法,实验表明,该方法可以在一组简单但具有挑战性的任务中学习一个不错的策略,没有一次安全违规,而基线算法有数百次安全违规。 https://dataspace.princeton.edu/handle/88435/dsp013197xq26c

成为VIP会员查看完整内容
46

虽然监督学习引发了深度学习的繁荣,但它有一些关键的缺点:(1)它需要大量昂贵的标记数据,(2)它从头开始解决任务,而不是像人类那样利用从先前经验中获得的知识和技能。预训练已成为一种替代和有效的范式,以克服这些缺点,其中模型首先使用容易获得的数据进行训练,然后用于解决感兴趣的下游任务,标记数据比监督学习少得多。使用未标记数据进行预训练,即自监督学习,尤其具有革命性,在不同领域取得了成功:文本、视觉、语音等。这就提出了一个有趣且具有挑战性的问题: 为什么对未标记数据进行预训练应该有助于看似不相关的下游任务?

https://dataspace.princeton.edu/handle/88435/dsp01t435gh21h **本文提出了一些工作,提出并建立了一个理论框架,以研究为什么自监督学习对下游任务有益。**该框架适用于对比学习、自回归语言建模和基于自我预测的方法。该框架的核心思想是预训练有助于学习数据的低维表示,这随后有助于用线性分类器解决感兴趣的下游任务,需要较少的标记数据。一个常见的主题是形式化用于构建自监督学习任务的无标记数据分布的理想属性。在适当的形式化下,可以表明,近似最小化正确的预训练目标可以提取在无标记数据分布中隐式编码的下游信号。最后表明,该信号可以用线性分类器从学习到的表示中解码,从而为跨任务的"技能和知识"迁移提供了一种形式化。

**引言 **

**在寻求设计智能体和数据驱动的问题解决方案的过程中,机器学习和人工智能领域在过去十年中取得了巨大的进步。**随着在具有挑战性的监督学习基准上的初步成功,如ImageNet [Deng等人,2009],深度学习的创新随后导致模型在不同领域的许多此类基准上具有超人的性能。训练这种特定于任务的模型当然令人印象深刻,并具有巨大的实用价值。然而,它有一个重要的限制,即需要大量的标记或标注数据集,而这通常是昂贵的。此外,从智能的角度来看,人们希望有更通用的模型,就像人类一样[Ahn和Brewer, 1993],可以从以前的经验中学习,将它们总结为技能或概念,并利用这些技能或概念来解决新任务,很少或没有演示。毕竟,在没有明确监督的情况下,婴儿通过观察和互动来学习很多东西。这些局限性启发了预训练的另一种范式。 ******本文的重点是使用通常大量可用的未标记数据进行预训练。使用未标记数据的想法一直是机器学习的兴趣点,特别是通过无监督学习和半监督学习。**使用深度学习对其进行的现代适应通常称为自监督学习(SSL),并已经开始通过对比学习和语言建模等思想改变机器学习和人工智能的格局。自监督学习的思想是仅使用未标记的数据构建某些任务,并训练模型在构建的任务上表现良好。这类任务通常需要模型通过从观察到的或保留的部分预测输入的未观察到的或隐藏的部分(或属性)来编码数据的结构属性[LeCun和Misra, 2021]。自监督学习在许多感兴趣的下游任务上显示出了通用性和实用性,通常比从头解决任务具有更好的样本效率,从而使我们离通用智能体的目标更近了一步。事实上,最近,像GPT-3 [Brown等人,2020]等大型语言模型已经展示了大规模出现的令人着迷的"突发行为",引发了人们对自监督预训练想法的更多兴趣。 尽管自监督学习在经验上取得了成功,并继续显示出巨大的前景,但除了粗略的直觉之外,仍然缺乏对其工作原理的良好理论理解。这些令人印象深刻的成功提出了有趣的问题,因为先验不清楚为什么在一个任务上训练的模型应该有助于另一个看似不相关的任务,即为什么在任务a上训练应该有助于任务b。虽然对SSL(和一般的深度学习)的完整理论理解是具有挑战性和难以实现的,但在任何抽象层次上理解这种现象都可能有助于开发更有原则的算法。本文的研究动机是:为什么在自监督学习任务上进行训练(使用大量未标记数据)有助于解决数据稀缺的下游任务?如何将“知识和技能”的迁移正式化? 虽然有大量关于监督学习的文献,但来自SSL任务→下游任务的泛化与监督学习中来自训练集→测试集的泛化有本质的不同。对于分类下游任务的监督学习,例如,从未知分布中采样的在输入-标签对的训练集上训练的模型,可以直接用于对从相同分布中采样的未见过的测试集的评估。这个基本的分布建立了从训练集到测试集的联系。然而,从SSL任务→下游任务的概念连接就不那么清晰了,因为SSL任务中使用的未标记数据没有关于下游标签的明确信号。这意味着在SSL任务上预训练的模型(例如,从其余部分预测输入的一部分)不能直接用于下游任务(例如,从输入预测类别标签)。因此,“知识和技能”的迁移需要使用一些标记数据进行额外的训练步骤,理想情况下比从头开始监督学习所需的少。对SSL任务→下游任务泛化的任何理论理解都需要解决这些问题:“未标记数据的内在作用是什么?以及“如何将预训练模型用于下游任务?”本文针对分类的下游任务,通过对无标签数据进行分布假设,并利用表示学习的思想,研究这些问题: (a)(分布假设)未标记的数据分布隐含地包含有关感兴趣的下游分类任务的信息。

(b)(表示学习)在适当的SSL任务上预训练的模型可以通过学习到的表示对该信号进行编码,这些表示随后可以用线性分类器解决下游分类任务。

点(a)表明,未标记的某些结构属性隐式地为我们提供了有关后续下游任务的提示,而自监督学习可以帮助从数据中梳理出这个信号。点(b)提出了一种简单且经验上有效的方法来使用预训练模型,利用模型的学习表示。本文识别并在数学上量化了未标记数据的分布属性,对于不同的SSL方法,如对比学习、语言建模和自我预测,可以证明可以学习到良好的表示。在下一节中,我们将深入研究表示学习的思想,并形式化解释为什么自监督学习有助于下游任务。

成为VIP会员查看完整内容
45

深度监督学习算法通常需要大量的标记样本才能达到令人满意的性能。为避免收集和标记过多样本带来的昂贵成本,提出自监督学习(SSL)作为无监督学习的一个子集,在没有任何人工标注标签的情况下,从大量未标记样本中学习良好的特征。SSL是近年来的研究热点,相关算法层出不穷。然而,很少有全面的研究解释不同SSL变体之间的联系以及它们是如何演变的。**文中试图从算法、理论、应用、3个主要趋势和开放问题等方面对SSL的各种方法进行综述。**首先,详细介绍了大多数SSL算法的动机,并比较了它们的共性和差异;其次,研究了与SSL相关的理论问题。讨论了SSL在图像处理、计算机视觉(CV)以及自然语言处理(NLP)等领域的典型应用;最后讨论了SSL的3个主要发展趋势和有待进一步研究的问题。在https://github.com/guijiejie/SSL上可以找到一些有用的材料。

https://arxiv.org/abs/2301.05712

1. 引言深度监督学习算法在计算机视觉(computer vision, CV)和自然语言处理(natural language processing, NLP)等领域取得了令人满意的性能。监督学习算法通常需要大量的标记样本才能获得更好的性能。由于以下两个主要原因,在ImageNet等大规模数据库上训练的模型被广泛用作预训练模型,然后进行微调以用于其他任务(表1)。首先,在不同的大规模数据库上学习到的参数提供了一个很好的起点。因此,在其他任务上训练的网络可以更快地收敛。其次,在大规模数据库上训练的网络已经学习到相关的层次特征,这有助于减少其他任务训练过程中的过拟合问题,特别是当其他任务中的示例数量较少或训练标签有限时。**不幸的是,在许多真实的数据挖掘和机器学习应用中,虽然可以找到许多未标记的训练样本,但通常只有有限的标记样本。**标记的示例通常是昂贵、困难或耗时的,因为它们需要有经验的人类注释人员的努力。例如,在web用户特征分析中,可以很容易地收集到大量的web用户特征,但标注这些数据中的非盈利用户或盈利用户需要检查、判断,甚至是耗时的跟踪任务,需要有经验的人工评估人员执行,成本非常高。另一方面,在医疗领域,无标签样本可以很容易地从常规体检中获得。然而,对如此多的病例进行逐一诊断,给医学专家带来了沉重的负担。例如,为了进行乳腺癌诊断,放射科医生必须为大量容易获得的高分辨率乳房x光片中的每个焦点分配标签。这个过程通常非常低效和耗时。此外,监督学习方法存在虚假关联和泛化误差,容易受到对抗攻击。为了缓解监督学习的两个局限性,许多机器学习范式被提出,如主动学习、半监督学习和自监督学习(SSL)。本文主要讨论SSL。SSL算法被提出,用于从大量未标记的实例中学习良好的特征,而无需使用任何人工标注。SSL的一般流程如图1所示。在自监督预训练阶段,设计预定义的前置任务供深度学习算法求解,并根据输入数据的某些属性自动生成用于前置任务的伪标签。然后,训练深度学习算法来学习解决前置任务;在自监督预训练过程完成后,学习到的模型可以作为预训练模型进一步迁移到下游任务(特别是当只有相对较少的样本可用时),以提高性能并克服过拟合问题。

由于在自监督训练期间不需要人工标注来生成伪标签,SSL算法的一个主要优点是它们可以充分利用大规模未标记数据。使用这些伪标签进行训练的自监督算法取得了有希望的结果,自监督和监督算法在下游任务中的性能差距缩小了。Asano et al.[1]表明,即使在单一图像上,SSL也可以令人惊讶地产生泛化良好的低级特征。SSL[2] -[19]最近受到越来越多的关注(图2)图灵奖获得者,在第八届国际学习表征会议(ICLR 2020)上做了主题演讲,他的演讲题目是“the future is self - supervised”。Yann LeCun和Yoshua Bengio都获得了图灵奖,他们说SSL是人类级别的智能[20]的关键。谷歌学者表示,目前已经发表了大量与SSL相关的论文。例如,2021年发表了大约18,900篇与SSL相关的论文,每天大约有52篇论文,或每小时超过两篇论文(图2)。为了防止研究人员迷失在如此多的SSL论文中,并整理最新的研究成果,我们试图及时提供这一主题的调研。

本文的其余部分组织如下。第2-7节从算法、理论、应用、三个主要趋势、开放问题和性能比较的角度介绍SSL,如表2所示。最后,第8节对调研进行了总结。

成为VIP会员查看完整内容
45

图论是一门蓬勃发展的学科,包含了许多美丽而强大的、具有广泛适用性的定理。近年来,它的爆炸式增长主要是因为它是支撑现代应用数学(特别是计算机科学、组合优化和运筹学)的基本结构,但也因为它在更应用科学中的应用越来越多。图的通用性使其成为通信网络设计和分析中不可或缺的工具。 本书的主要目的是提出一个连贯的介绍的主题,适合作为教科书的高等本科和开始研究生在数学和计算机科学。它在不牺牲其直觉和美学吸引力的情况下,提供了图论的系统处理。本书对常用的证明技巧进行了描述和说明,并提供了大量不同难度的练习,以帮助读者掌握这些技巧并加强对材料的掌握。 第二个目标是作为图论研究的介绍。为此,本书包含了一些更高级的主题,并强调了一些有趣和具有挑战性的开放问题,并进行了一些详细讨论。尽管有这些更高级的材料,这本书的组织方式是,图论的入门课程可以基于所选章节的前几节。

成为VIP会员查看完整内容
43

本书为表示提供了简明而全面的指南,这是机器学习(ML)的核心。最先进的实际应用涉及许多高维数据分析的挑战。不幸的是,许多流行的机器学习算法在面对庞大的基础数据时,在理论和实践中都无法执行。本书恰当地介绍了这个问题的解决方案。 此外,这本书涵盖了广泛的表示技术,对学者和ML从业者都很重要,如局部敏感哈希(LSH),距离度量和分数范数,主成分(PCs),随机投影和自动编码器。书中提供了几个实验结果来证明所讨论技术的有效性。 本书讨论了机器学习(ML)中最重要的表示问题。在使用机器从数据中学习类/聚类抽象时,以适合有效和高效机器学习的形式表示数据是很重要的。在本书中,我们建议涵盖各种在理论和实践中都很重要的表示技术。在当前兴趣的实际应用中,数据通常是高维的。这些应用包括图像分类、信息检索、人工智能中的问题解决、生物和化学结构分析以及社会网络分析。这种高维数据分析的一个主要问题是,大多数流行的工具,如k近邻分类器、决策树分类器,以及一些依赖于模式间距离计算的聚类算法都不能很好地工作。因此,在低维空间中表示数据是不可避免的。 常用的降维技术有以下几种:

  1. 特征选择方案:在这里,给定的特征集的一个适当子集被识别并用于学习。
  2. 特征提取方案:在学习中使用给定特征的线性或非线性组合。 一些流行的线性特征提取器基于主成分、随机投影和非负矩阵分解。我们在本书中涵盖了所有这些技术。关于用主成分子集表示数据,文献中存在一些误解。一般认为,前几个主成分是对数据进行分类的正确选择。我们在书中论证并实际地表明,这种做法可能是不正确的。

成为VIP会员查看完整内容
39

为了应对现实世界的动态变化,智能体需要在其生命周期中增量地获取、更新、积累和利用知识。这种能力被称为持续学习,为人工智能系统自适应发展提供了基础

在一般意义上,持续学习明显受到灾难性遗忘的限制,学习新任务通常会导致旧任务的性能急剧下降。除此之外,近年来出现了越来越多的进展,在很大程度上扩展了持续学习的理解和应用。人们对这一方向日益增长和广泛的兴趣表明了它的现实意义和复杂性。本文对持续学习进行了全面的调研,试图在基本设置、理论基础、代表性方法和实际应用之间建立联系。基于现有的理论和实证结果,将持续学习的一般目标总结为:在资源效率的背景下,确保适当的稳定性-可塑性权衡,以及充分的任务内/任务间泛化能力。提供了最先进的和详细的分类法,广泛分析了有代表性的策略如何解决持续学习,以及它们如何适应各种应用中的特定挑战。通过对持续学习当前趋势、跨方向前景和与神经科学的跨学科联系的深入讨论,相信这种整体的视角可以极大地促进该领域和其他领域的后续探索。

1. 引言

学习是智能系统适应环境的基础。为了应对外界的变化,进化使人类和其他生物具有很强的适应性,能够不断地获取、更新、积累和利用知识[148]、[227]、[322]。自然,我们期望人工智能(AI)系统以类似的方式适应。这激发了持续学习的研究,其中典型的设置是逐一学习一系列内容,并表现得就像同时观察到的一样(图1,a)。这些内容可以是新技能、旧技能的新示例、不同的环境、不同的背景等,并包含特定的现实挑战[322],[413]。由于内容是在一生中逐步提供的,因此在许多文献中,持续学习也被称为增量学习或终身学习,但没有严格的区分[70],[227]。

与传统的基于静态数据分布的机器学习模型不同,持续学习的特点是从动态数据分布中学习。**一个主要的挑战被称为灾难性遗忘[291],[292],对新分布的适应通常会导致捕获旧分布的能力大大降低。**这种困境是学习可塑性和记忆稳定性权衡的一个方面:前者过多会干扰后者,反之亦然。除了简单地平衡这两方面的“比例”外,持续学习的理想解决方案应该获得强大的泛化能力,以适应任务内部和任务之间的分布差异(图1,b)。作为一个朴素的基线,重新训练所有旧的训练样本(如果允许)可以轻松解决上述挑战,但会产生巨大的计算和存储开销(以及潜在的隐私问题)。事实上,持续学习的主要目的是确保模型更新的资源效率,最好接近只学习新的训练样本。

**许多努力致力于解决上述挑战,可以在概念上分为五组(图1,c):**参考旧模型添加正则化项(基于正则化的方法);逼近和恢复旧数据分布(基于回放的方法);显式操作优化程序(基于优化的方法);学习鲁棒和良好泛化的表示(基于表示的方法);以及使用正确设计的体系结构构建任务自适应参数(基于体系结构的方法)。该分类法扩展了常用分类法的最新进展,并为每个类别提供了细化的子方向。总结了这些方法是如何实现所提出的一般目标的,并对其理论基础和典型实现进行了广泛的分析。特别是,这些方法是紧密联系的,例如正则化和重放最终纠正优化中的梯度方向,并且具有高度的协同性,例如,重放的效果可以通过从旧模型中提取知识来提高。 现实应用对持续学习提出了特殊的挑战,可以分为场景复杂性和任务特异性。对于前者,例如,在训练和测试中可能缺少任务oracle(即执行哪个任务),训练样本可能是小批量甚至一次引入的。由于数据标记的成本和稀缺性,持续学习需要在少样本、半监督甚至无监督的场景中有效。对于后者,虽然目前的进展主要集中在视觉分类,但其他视觉领域(如目标检测、语义分割和图像生成)以及其他相关领域(如强化学习(RL)、自然语言处理(NLP)和伦理考虑)正在受到越来越多的关注,其机遇和挑战。

**考虑到持续学习的兴趣显著增长,我们相信这项最新和全面的调研可以为后续的工作提供一个整体的视角。**尽管有一些关于持续学习的早期调研,覆盖面相对较广[70],[322],但近年来的重要进展并未被纳入其中。相比之下,最新的调研通常只整理持续学习的局部方面,关于其生物学基础[148],[156],[186],[227],视觉分类的专门设置[85],[283],[289],[346],以及NLP[37],[206]或RL[214]中的扩展。据我们所知,这是第一个系统总结持续学习的最新进展的调研。基于这些优势,我们就当前趋势、跨方向前景(如扩散模型、大规模预训练、视觉转换器、具体AI、神经压缩等)以及与神经科学的跨学科联系,深入讨论了持续学习。

主要贡献包括:

(1) 对持续学习进行了最新而全面的综述,以连接理论、方法和应用的进步;

(2) 根据现有的理论和实证结果,总结了持续学习的一般目标,并对具有代表性的策略进行了详细的分类; (3) 将现实应用的特殊挑战分为场景复杂性和任务特殊性,并广泛分析了持续学习策略如何适应这些挑战; (4)深入探讨了当前研究趋势和发展方向,以期为相关领域后续工作提供参考本文的组织如下: 在第2节中,我们介绍了持续学习的设置,包括其基本公式,典型场景和评估指标。在第3节中,我们总结了一些针对其一般目标的持续学习的理论努力。在第4节中,我们对具有代表性的策略进行了最新的和详细的分类,分析了它们的动机和典型的实现。在第5节和第6节中,我们描述了这些策略如何适应场景复杂性和任务特异性的现实挑战。在第7节中,我们提供了当前趋势的讨论,交叉方向的前景和神经科学的跨学科联系。

在本节中,我们详细介绍了代表性持续学习方法的分类(参见图3和图1,c),并广泛分析了它们的主要动机、典型实现和经验属性。

Regularization-based 方法

该方向的特点是添加显式正则项来平衡新旧任务,这通常需要存储旧模型的冻结副本以供参考(见图4)。根据正则化的目标,这类方法可以分为两类。

Replay-based 方法

将近似和恢复旧数据分布的方法分组到这个方向(见图5)。根据回放的内容,这些方法可以进一步分为三个子方向,每个子方向都有自己的挑战。

Optimization-based 方法

持续学习不仅可以通过向损失函数添加额外的项(例如正则化和重放)来实现,还可以通过显式地设计和操作优化程序来实现。

Representation-based 方法

将创建和利用持续学习表示优势的方法归为这一类。除了早期通过元训练[185]获得稀疏表示的工作外,最近的工作试图结合自监督学习(SSL)[125]、[281]、[335]和大规模预训练[295]、[380]、[456]的优势,以改进初始化和持续学习中的表示。请注意,这两种策略密切相关,因为预训练数据通常数量巨大且没有明确的标签,而SSL本身的性能主要通过对(一系列)下游任务进行微调来评估。下面,我们将讨论具有代表性的子方向。

Architecture-based 方法

上述策略主要集中在学习所有具有共享参数集的增量任务(即单个模型和一个参数空间),这是导致任务间干扰的主要原因。相反,构造特定于任务的参数可以显式地解决这个问题。以往的工作通常根据网络体系结构是否固定,将该方向分为参数隔离和动态体系结构。本文专注于实现特定任务参数的方式,将上述概念扩展到参数分配、模型分解和模块化网络(图8)。

成为VIP会员查看完整内容
40

事件:美国AI公司OpenAI推出基于大语言模型的对话模型ChatGPT,可提供高质量的回答,并能实现创作、编程等复杂功能,备受市场关注。不到两个月的时间,ChatGPT全球日活用户已突破千万。

  ChatGPT是突破式的创新技术ChatGPT是OpenAI公司推出的全新聊天机器人模型。通过引入人类反馈的强化学习,大幅提升了AI在人机对话时的准确度和可控性,具有强大的语言理解能力和语言表达能力。GPT模型仍在持续迭代,更先进大语言模型GPT-4有望在2023年推出,有望进一步推动AIGC产业发展。     ChatGPT应用及商业化落地加速科技公司纷纷涌入AIGC赛道,优秀的AIGC大模型层出不穷,我们认为基于AI文本生成的模型ChatGPT有望率先应用落地。AIGC赛道相关公司受到资本青睐,AIGC头部初创公司OpenAI最新估值约为290亿美元。作为AIGC领域领先的模型ChatGPT在对话机器人、智能创作等领域应用广泛,亚马逊、微软、Jasper等公司已经开启商业化之路,商业化前景广阔。  

成为VIP会员查看完整内容
45

深度学习模型通常限定在固定数据集中进行训练,训练完成之后模型无法随着时间而扩展其行为. 将已训练好的模型在新数据上训练会出现灾难性遗忘现象. 持续学习是一种能够缓解深度学习模型灾难性遗 忘的机器学习方法,它旨在不断扩展模型的适应能力,让模型能够在不同时刻学习不同任务的知识. 目前,持 续学习算法主要分为 4 大方面,分别是正则化方法、记忆回放方法、参数孤立方法和综合方法. 对这 4 大方面 方法的研究进展进行了系统总结与分析,梳理了衡量持续学习算法性能的评估方法,讨论了持续学习的新兴 研究趋势. http://www.yndxxb.ynu.edu.cn/yndxxbzrkxb/article/doi/10.7540/j.ynu.20220312?viewType=HTML 得益于更大的数据集、更强的计算能力以及 网络结构创新,深度学习在图像分类[1]、人脸识别[2] 等任务上已经实现了接近人类甚至超越人类的性 能. 然而大多数神经网络只能在预先知道所有类的 批量学习设定下进行训练直至拟合,当有新数据出 现时,必须使用全部数据重新训练模型,以适应数 据分布变化[3] . 随着移动设备和互联网的飞速发展, 人们每天都会拍摄和分享大量图片和视频. 而从零 开始重新训练模型是耗时且低效的,这就要求模型 拥有以序列方式进行持续学习和更新的能力,以适 应每天新产生的数据. 神经网络从原来的批量学习模式转变为序列 学习模式时,很容易出现对旧知识的遗忘,这意味 着,在使用新数据更新模型后,模型在先前学习的 任务中所达到的性能会急剧下降[4],出现灾难性遗 忘. 早在 30 多年前,人们就在多层感知器中发现了 灾难性遗忘现象[5],产生灾难性遗忘的根本原因是 新任务训练过程需要改变神经网络权值,这不可避 免地修改了某些对于旧任务来说至关重要的权重, 使得模型不再适用于旧任务. 与此相反,人类可以 不断学习和适应新知识,并且在自身积累新知识的 同时,也会对原有知识进行了补充和修正,学习新 知识很少会导致人类灾难性地忘记之前的知识[6] . 如自然视觉系统,先前的知识得到了保留的同时, 新的视觉信息被不断地整合到已有知识中. 为了克服灾难性遗忘,学习系统一方面要在新 任务上表现出获取新知识和提炼现有知识的能力, 另一方面要防止新任务对现有知识的显著干扰. 持 续学习,也称为终身学习,它建立在不断学习外部 世界的想法之上,神经网络通过持续学习算法能够 渐进地学习新知识,并且保留过去学习的内容. 近 年来,如图 1 所示,持续学习在计算机视觉领域获 得了蓬勃发展,同时各单位也如火如荼开展着持续 学习的相关比赛[7] . 鉴于持续学习深刻的应用场景 和该领域飞速的发展,本文对持续学习的研究工作 进行综述,从而帮助读者掌握持续学习研究的最新 趋势.

成为VIP会员查看完整内容
36

https://fullstackdeeplearning.com/ 课程描述

有很多很棒的课程来学习如何训练深度神经网络。但是,训练模型只是进行深度学习项目的一部分。本课程教授全栈生产深度学习:

我们的课程整合了5年多来数千名学习者的机器学习教学反馈。

截至2022年,我们更新了所有材料的最佳实践,并添加了一些全新的主题:

制定问题并估算项目成本 收集、清理、处理、标记、合成和增强数据 选择正确的框架和计算基础设施 故障排除培训和确保重现性 大规模部署模型 ✨监控并持续改进部署的模型✨ ✨ML团队如何工作以及如何管理ML项目✨ ✨建立在大型语言模型和其他基础模型✨

成为VIP会员查看完整内容
48

过去十年,深度学习在几个重要应用中取得了巨大成功,但数学理解却落后于它惊人的经验成功。经典的机器学习理论不足以解释深度学习中的各种新现象,并为算法选择提供指导,很大程度上是由于过于简化的黑盒观点忽略了模型与优化算法之间的相互作用。本文提出了一组理论结果,考虑了模型和优化算法之间的相互作用,旨在弥合深度学习的理论和实践之间的差距,以实现泛化和优化。在优化方面,我们首先通过呈现一个在经验上工作良好的指数级增长的学习率计划来说明传统优化理论和具有标准化层的深度网络之间的不匹配。本文通过建立其与具有权重衰减的SGD的等价性来解释这种惊喜,并证明其收敛速度快且对初始化规模不敏感。在此基础上,我们设计了一种名为SIBERT的BERT变体,它可以被SGD训练,因此比ADAM等自适应算法更节省内存。最后,提出了第一个可证明的通用场景,根据经验观察,梯度下降以非单调的方式减少损失。在泛化方面,本文研究了优化算法的隐式偏差,即尽管存在因模型过参数化而泛化能力差的解,但算法仍返回泛化能力好的解。本文首先给出了一个严格的理由,为什么卷积网络比全连接网络的样本效率更高。为经验观察提供了理论证明,包括矩阵分解在内的深度线性网络,是由从小初始化隐偏置到低秩解的梯度下降训练的。我们还确定了一个条件,即梯度下降与镜像下降等价,可以用来理解非线性模型的隐式偏差,并恢复几个先前的结果。进一步表明,当有一定的梯度噪声或其学习率大于2的损失锐度时,梯度下降对"更平坦"的解决方案有隐性偏差。

成为VIP会员查看完整内容
39

王龙, 黄锋. 多智能体博弈、学习与控制. 自动化学报, 2023, 49(3): 1−34 doi: 10.16383/j.aas.c220680

http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c220680

近年来, 随着人工智能(Artificial intelligence, AI)技术在棋牌游戏、计算机视觉、自然语言处理和蛋白质结构解析与预测等研究领域取得的突破进展, 传统学科之间的固有壁垒正在被逐步打破, 多学科深度交叉融合的态势变得越发明显. 作为现代智能科学的三个重要组成部分, 博弈论、多智能体学习与控制论自诞生之初就逐渐展现出一种“你中有我, 我中有你” 的关联关系. 特别地, 近年来在AI技术的促进作用下, 本文对这三者间的交叉研究成果正呈现出一种井喷式增长的态势. 为及时反映这一学术动态和趋势, 对这三者的异同、联系以及最新的研究进展进行了系统梳理. 首先, 介绍了作为纽带连接这三者的四种基本博弈形式, 进而论述了对应于这四种基本博弈形式的多智能体学习方法; 然后, 按照不同的专题, 梳理了这三者交叉研究的最新进展; 最后, 对这一新兴交叉研究领域进行了总结与展望.

近年来, 随着人工智能(Artificial intelligence, AI)技术的飞速发展, 博弈论在社会智能[1-2]、机器智能[3]、合作智能[4]、AI安全[5-6]和AI伦理[7-8]等新兴交叉研究领域中扮演着越来越重要的角色. 特别地, 通过结合多智能体学习与控制论等理论方法, 博弈论已成为AI和自动控制领域中的一个热点研究方向. 从本质上讲, 所谓博弈论就是一类研究理性智能体(Agent)①之间策略交互的数学理论与方法[9]. 它是现代数学的一个分支, 也是运筹学的一个重要组成部分. 虽然博弈论的早期思想可以追溯到公元前, 但其作为一个独立的研究领域正式诞生的标志是von Neumann和Morgenstern于1944年合著的《博弈论与经济行为》 (Theory of Games and Economic Behavior)一书[10]. 作为多智能体系统或者分布式AI (Distributed AI)的一个研究主题[11-13], 多智能体学习主要研究多个智能体交互的策略学习问题. 从其发展历程上讲, 多智能体学习与博弈论几乎具有一样长的历史. 例如, 早在1951年, 文献[14]就提出了一类称为虚拟对弈(Fictitious play)的学习方法用于求解博弈的Nash均衡问题. 尔后, 在上世纪80年代后期, 伴随着学术界对演化计算、社会学习、交互学习和多智能体场景下的强化学习产生的广泛兴趣, 多智能体学习的研究开始在AI领域中兴起[12, 15]. 特别地, 近年来借助多智能体学习在棋牌[16-18]和视频游戏[19-21]等特定任务上取得的突破进展, 这一方向在AI领域中再次掀起了热潮, 成为AI研究的核心内容之一. 与博弈论的发展历程相类似, 虽然人类进行自动控制的生产实践最早可以追溯到公元前[22], 但控制论作为一个独立的研究领域正式诞生的标志是Wiener于1948年撰写的《控制论》 (Cybernetics)一书[23]. 通过对比讨论“动物智能” 与“机器智能” 中的若干重要问题, Wiener指出“智能的首要问题是‘学习’”[24]. 综上可见, 虽然博弈论、多智能体学习与控制论分属不同的研究领域, 但究其发展根源和轨迹, 它们从来都不是相互割裂的, 而是紧密关联、相互融合的, 展现出一种“你中有我, 我中有你” 的景象.

反映到具体的研究中, 博弈论、多智能体学习与控制论的融合通常包含在三种不同的场景设置中. 第一种设置为智能体之间完全合作. 在该设置下, 连接博弈论、多智能体学习与控制论的一种典型博弈形式是团队博弈(Team game)[25-26], 即所有博弈者具有一个相同收益函数的博弈形式. 在博弈论中, 团队博弈最初用于研究组织问题[25]. 而在多智能体学习中, 这类博弈主要用于处理多智能体的合作序贯决策问题, 也为发展合作型多智能体强化学习算法提供模型框架[27-28]. 考虑到分布式控制与团队博弈的信息结构问题[29]具有诸多相似之处, 在控制论中, 团队博弈主要用于分析团队决策问题[26]. 如果博弈的所有博弈者具有相同的(全局)信息结构, 团队博弈中的决策问题则可以转化成一个传统的集中式控制问题; 而如果每个博弈者具有不同的(局部)信息结构, 团队博弈的决策问题则可以转化成一个多智能体合作控制问题或者分布式控制问题[30-31]. 虽然团队博弈最早提出于上世纪50年代[25], 但时至今日, 它在控制领域中仍然是一个重要的研究主题[32-34]. 第二种设置为智能体之间完全竞争. 在该设置下, 连接博弈论、多智能体学习与控制论的一种典型博弈形式是零和博弈(Zero-sum game), 即两个博弈者具有零和收益关系(一个博弈者的收益是另一个博弈者的损失)的博弈形式. 在博弈论中, 零和博弈主要用于研究具有完全对立目标的博弈者间的决策问题. 而在多智能体学习中, 这类博弈主要用于处理多智能体的竞争序贯决策问题, 也为发展基于极大极小原理的多智能体强化学习算法提供模型框架[35]. 相比而言, 在控制论中, 零和博弈常用于处理含不确定因素的系统控制(鲁棒控制)问题[36-37]. 在该类问题中, 控制器(Controller)通常被视为是一个最大化某一特定性能指标的博弈者; 而系统的不确定性(如干扰、噪声)则被视为是另一个博弈者, 其目标是使控制器所最大化的性能指标最小化. 第三种设置为智能体之间既不完全合作又不完全竞争, 即混合设置. 在该设置下, 多智能体系统所形成的博弈是一个一般和博弈(General-sum game). 对于这类博弈, Nash均衡一般是标准的解[38]. 在多智能体学习中, 这类博弈通常用于处理一般化的多智能体序贯决策问题, 也为发展混合型的多智能体强化学习算法提供模型框架[39-40]. 相比而言, 在控制论中, 这种设置下的博弈者通常被视为是控制器, 而博弈者的策略被视为是控制律(Control la-w). 为了实现一个特定的任务目标, 比如收敛到一个Nash均衡, 博弈者的策略更新规则或学习算法通常需要进行额外设计[30, 41].

由于学科发展等种种原因, 博弈论和自动控制的研究对象曾经一度存在着一些差异. 但借助AI和多智能体学习等技术, 它们之间的这种差异如今正在慢慢变小. 博弈论的研究对象一般是理性的“智能体”, 或者是具有智能的“生命体”, 比如人和动物等[9-10]; 而自动控制的研究对象一般是“机器”, 或者是无生命的“物理对象”, 比如机器人和航空航天器等[22, 42]. 然而, 近年来在AI技术和信息技术的推动作用下, 传统无生命的物理对象通过机器学习等方法正在逐渐被赋予如生命体一样的智能性. 与此同时, 自动控制的研究对象也在从单纯的物理系统逐步地转向机器、人与社会等更为复杂的融合交互系统[43]. 在这一全新的交互系统中, 机器不再被视为是一种无生命的物理对象, 而是作为一种智能的载体广泛地参与到人类社会的各种交互之中, 并呈现出一种人与人、人与机器、机器与机器的混合交互景象[1-4]. 然而, 这一全新的交互系统在促进人类社会发展的同时, 也将给人类带来一些新的挑战, 比如伦理问题和安全问题等. 考虑到这些新的挑战本身大部分是由多种研究对象所引发的, 比如人这类对象可能涉及到博弈论和社会学等, 机器这类对象可能涉及到控制论和机器学习等, 所以单一的学科或研究领域都会或多或少地存在着一些不足. 为此, 博弈论、多智能体学习与控制论的交叉融合有望在这方面发挥重要作用. 一方面, 它们交叉融合的本身可以促进各单一研究领域的发展; 另一方面, 它们涵盖的广泛理论体系可以为这一全新交互系统提供恰当的分析方法和研究工具. 当前无论是在博弈论领域、AI领域还是在自动控制领域, 博弈与多智能体学习的交叉[13, 44-50]、博弈与控制的交叉[30, 37, 51-53]、以及多智能体学习与控制的交叉[54-56]都是前沿的热点研究方向, 并且在这些主题下的相关工作和进展正呈现出一种井喷式增长的态势[57]. 然而, 据作者所知, 目前国内外已有的综述性文献主要集中讨论了这三者中的某两个特定领域[24, 30, 44, 47-52, 54-55, 58], 还没有文献宏观地从这三者的角度对它们的联系、区别以及最新的交叉研究成果进行全面的审视与梳理. 本文的主要目的是试图填补这一空白, 核心内容主要分为3节: 第1节主要介绍并讨论作为纽带连接博弈论、多智能体学习与控制论的四种基本博弈形式, 即标准式博弈(Normal-form game)、演化博弈(Evolutionary game)、随机博弈(Stochastic game)和不完全信息博弈(Incomplete-information game); 第2节主要论述对应于这四种基本博弈形式的多智能体学习方法, 即策略学习(Strategic learning)、学习动力学(Learning dynamics)、强化学习(Reinforcement learning)和鲁棒学习(Robust learning); 第3节按照不同研究专题梳理并介绍当前博弈、学习与控制的几类典型交叉研究成果; 最后, 针对这一重要前沿交叉研究领域给出总结与展望.

总结与展望

作为现代数学的一个重要分支和运筹学的一个重要组成部分, 博弈论近年来在学术界受到越来越多的关注. 特别地, 随着多智能体系统和AI等研究领域的兴起, 博弈论、多智能体学习与控制论的交叉融合目前已发展成为一个前沿热点研究方向. 为了及时反映这一学术动态和趋势, 本文从连接这三者的四类基本博弈形式出发, 系统地讨论了它们之间的联系与区别, 论述了它们对应的各类多智能体学习方法, 还回顾了当前几个博弈、学习与控制的交叉研究专题. 作为全文内容的一个总结, 图3左边子图描述了多智能体博弈、学习与控制在宏观层面上的相互联系, 右边子图展示了本文介绍的各类博弈形式、多智能体学习方法和控制论方法之间的内在关联关系(图中的数字表示本文的章节编号).

本文介绍的各类博弈形式、学习方法和控制论方法之间的内在关联关系图

目前, 虽然多智能体博弈、学习与控制这一新兴交叉研究领域已经取得了一些初步成果, 但总体而言, 它仍然处于发展初期, 还有巨大的发展空间. 从大的方向上看, 以下几方面未来还有待于进一步探索. 1)无模型的(Model-free)博弈论或数据驱动的(Data-driven)博弈论. 在博弈论的传统研究中, 大部分工作都是基于特定的博弈模型或者发展新的博弈模型来开展的. 换句话讲, 在这些研究中, 博弈模型是事先设定的并且(或部分)为博弈者所已知的. 因此, 从方法论上讲, 它们属于基于模型的(Model-based)博弈论, 即“白盒” (White-box)的方法. 然而, 在大量与博弈论相关的实际应用, 比如视频游戏、多机器人系统、自动驾驶和无人机集群中, 获取准确的模型信息通常是比较困难的. 例如, 为了实现某些实际应用中的特定任务目标, 博弈者的收益函数通常可能需要进行额外设计[41, 231, 320]. 针对这些无模型的博弈应用问题, 如果传统基于模型的博弈论方法继续被使用去求解诸如Nash均衡等博弈问题, 那么它将自然会面临一些理论困境. 为此, 这就十分有必要去发展一类无模型的或数据驱动的博弈论方法, 即利用博弈实时产生的数据或者博弈交互后的离线数据来实现对一个博弈问题的求解(也就是“黑盒” (Black-box)或者“灰盒” (Gray-box)的方法). 目前, 虽然这方面已有一些相关工作, 比如著名的虚拟对弈方法[14, 184]和多智能体强化学习方法, 但总体而言, 这一领域仍处于发展初期, 还有许多不完善之处.

2)博弈论、多智能体学习与控制论的进一步深度融合. 目前, 在自动控制领域中, 博弈、学习与控制的大部分交叉研究工作都是基于最优控制和微分博弈来开展的. 除此之外, 博弈论和控制论本质上还有许多相通之处. 例如, 如果从博弈论的角度来看控制论, 控制系统中的控制器一般可视为博弈中的决策者, 它可以改变受控系统的演化轨迹以期达到某种理想效果; 反过来, 如果从控制论的角度来看博弈论, 博弈中的博弈者一般可视为控制系统中的控制器, 它的决策目标或偏好(Preference)通常可认为是一种控制目标. 因此, 从控制论的角度上讲, 博弈论也被视为是一类研究交互控制器之间的合作与竞争的数学理论[30]. 另外, 作为现代控制论的一个重要组成部分, 鲁棒控制[237]与鲁棒优化[179]、鲁棒博弈[180]以及鲁棒学习[233]在基本思想上均有诸多相似之处. 虽然受安全AI和鲁棒AI [5, 6, 321]这一研究主题的驱动, 当前鲁棒的机器学习技术在AI领域中已成为一个热点研究方向, 但鲁棒控制、鲁棒优化、鲁棒博弈和鲁棒学习间的交叉研究在自动控制领域中目前仍是比较稀少的.

3)建立并发展包含其他博弈形式的学习与控制的研究框架. 本文讨论的博弈形式主要涉及标准式博弈、演化博弈、随机博弈、不完全信息博弈、势博弈和微分博弈. 在这些基本博弈形式之外, 现代博弈论中还有一些其他新颖形式, 比如扩展式博弈(Extensive-form game)[18, 322-323]、信号博弈(Signaling game)[324]、量子博弈(Quantum game)[325-327]和平均场博弈(Mean-field game)[328-329]等. 因此, 如何建立并发展一个包含其他博弈形式的学习与控制的研究框架将是一个十分值得继续探究的课题.

4)博弈论、动力系统与深度学习的结合. 演化博弈动力学是博弈论与动力系统的一种结合形式. 考虑到当前在机器学习领域中, 动力系统与深度学习的结合是一个广受关注的研究课题[330-332]. 因此, 如果演化博弈动力学可以进一步与深度学习相结合, 那么这在理论上将是十分有意义的. 尽管当前这方面已有一些探索性工作, 比如神经复制动力学[119], 但总体而言, 这一研究方向目前才刚刚兴起并且在理论上还有诸多不完善之处.

5)博弈、学习与控制的交叉研究在一些新兴领域中的应用. 博弈论自诞生以来, 已在经济学、社会学、心理学、生物学、物理学、认知科学和计算机科学等研究领域中得到了大量卓有成效的应用. 近年来, 伴随着AI技术的快速发展, 人们也见证着一些新兴交叉研究领域的兴起, 比如社会智能[1-2]、机器智能[3]、合作智能[4]、AI安全[5-6]和AI伦理[7-8]等. 考虑到这些研究主题本身具有广泛的学科交叉性. 因此, 如何将博弈、学习与控制的交叉研究成果应用于这些新兴领域是未来一个十分值得探究的课题.

成为VIP会员查看完整内容
41
Top
微信扫码咨询专知VIP会员