监督学习是指:利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程,也称为监督训练或有教师学习。 监督学习是从标记的训练数据来推断一个功能的机器学习任务。训练数据包括一套训练示例。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。这就要求学习算法是在一种“合理”的方式从一种从训练数据到看不见的情况下形成。

VIP内容

通过使用Python开发用例,全面了解监督学习算法您将学习监督学习概念、Python代码、数据集、最佳实践、常见问题和缺陷的解决方案,以及实现结构化、文本和图像数据集算法的实践知识。

你将从介绍机器学习开始,强调监督学习、半监督学习和非监督学习之间的区别。在接下来的章节中,你将学习回归和分类问题,它们背后的数学,像线性回归、逻辑回归、决策树、KNN、朴素贝叶斯等算法,以及像随机森林、支持向量机、梯度增强和神经网络等高级算法。提供了所有算法的Python实现。最后,您将得到一个端到端模型开发流程,包括模型的部署和维护。在阅读了Python的监督学习之后,你将会对监督学习和它的实际实现有一个广泛的理解,并且能够以一种创新的方式运行代码和扩展它。

你将学习:

  • 回顾使用Python进行监督学习的基本构建块和概念
  • 为结构化数据以及文本和图像开发监督学习解决方案
  • 解决围绕过拟合、特征工程、数据清理和建立最佳拟合模型的交叉验证的问题
  • 理解从业务问题定义到模型部署和模型维护的端到端模型周期
  • 在使用Python创建监督学习模型时,避免常见的缺陷并遵循最佳实践

这本书是给谁的

  • 对监督学习的最佳实践和标准感兴趣,并使用分类算法和回归技术来开发预测模型的数据科学家或数据分析师。

https://www.apress.com/gp/book/9781484261552

成为VIP会员查看完整内容
0
22

最新论文

Policy gradient methods are among the most effective methods in challenging reinforcement learning problems with large state and/or action spaces. However, little is known about even their most basic theoretical convergence properties, including: if and how fast they converge to a globally optimal solution or how they cope with approximation error due to using a restricted class of parametric policies. This work provides provable characterizations of the computational, approximation, and sample size properties of policy gradient methods in the context of discounted Markov Decision Processes (MDPs). We focus on both: "tabular" policy parameterizations, where the optimal policy is contained in the class and where we show global convergence to the optimal policy; and parametric policy classes (considering both log-linear and neural policy classes), which may not contain the optimal policy and where we provide agnostic learning results. One central contribution of this work is in providing approximation guarantees that are average case -- which avoid explicit worst-case dependencies on the size of state space -- by making a formal connection to supervised learning under distribution shift. This characterization shows an important interplay between estimation error, approximation error, and exploration (as characterized through a precisely defined condition number).

0
0
下载
预览
子主题
Top