线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w'x+e,e为误差服从均值为0的正态分布。

知识荟萃

基础入门

线性回归

1.线性回归-sklearn库官方介绍英文版 作者:开源库 http://scikit-learn.org/stable/supervised_learning.html#supervised-learning

可参照官方教材进行学习,适合有一定英语基础,对sklearn有更深认识。

2.scikit-learn 0.18 中文文档 作者:ApacheCN Apache中文网 http://cwiki.apachecn.org/pages/viewpage.action?pageId=10030181

中文教材,参照上面的英文教材一起学习。

3.线性回归及梯度下降算法 作者:王大宝的CD http://blog.csdn.net/sinat_22594309/article/details/55203609

描述:线性回归部分入门的内容,介绍损失函数的由来,梯度下降法,正则化处理,希望对大家有帮助,也欢迎指教。

4.对线性回归、逻辑回归、各种回归的概念学习 作者:viewcode http://blog.csdn.net/viewcode/article/details/8794401

描述:对具体概念总结的比较清晰,数学推动容易理解,简化了数学学习的难度。

5.Logistic回归 作者:ApacheCN - 学习机器学习群【629470233】 https://github.com/apachecn/MachineLearning/blob/master/docs/5.Logistic%E5%9B%9E%E5%BD%92.md

描述:Logistic 回归虽然名字叫回归,但是它是用来做分类的。其主要思想是: 根据现有数据对分类边界线建立回归公式,以此进行分类。

6.线性回归Linear regression 作者:大饼博士X http://blog.csdn.net/xbinworld/article/details/43919445

描述:开始几篇将详细介绍一下线性回归linear regression,以及加上L1和L2的正则的变化。后面的文章将介绍逻辑回归logistic regression,以及Softmax regression。为什么要先讲这几个方法呢?因为它们是机器学习/深度学习的基石(building block)之一,而且在大量教学视频和教材中反复被提到,所以我也记录一下自己的理解,方便以后翻阅。这三个方法都是有监督的学习方法,线性回归是回归算法,而逻辑回归和softmax本质上是分类算法(从离散的分类目标导出),不过有一些场合下也有混着用的——如果目标输出值的取值范围和logistic的输出取值范围一致。

7.线性回归之——最小二乘法 作者:sbp810050504 http://sbp810050504.blog.51cto.com/2799422/1269572

描述:“最小二乘法”是最优化问题中建立经验公式的一种实现方法。了解它的原理,对于了解“Logistic回归”和“支持向量机的学习”都很有裨益。

8.线性回归-话题精华 作者:知乎收集 https://www.zhihu.com/topic/19650500/top-answers?page=1

描述:在这里会遇到你想知道的答案和知识,不妨进来看看。

9.Stanford机器学习笔记-1.线性回归 作者:llhthinker http://www.cnblogs.com/llhthinker/p/5248586.html

描述:吴恩达大牛系列第一课,很值得一看。

10.线性回归 作者:Duanxx http://blog.csdn.net/daunxx/article/details/51556677

描述:由于模型是线性的,所以在模式识别和机器学习的实际应用中存在非常大的局限性,特别是当输入向量的维度特别高的时候,其局限性就更为明显。但同时,线性模型在数学分析上相对较为简单,进而成为了很多其他的复杂算法的基础。

11.在Python中使用线性回归预测数据 作者:伯乐在线 - HanKai翻译 http://python.jobbole.com/81215/

描述:我想分享我个人的数据挖掘经历。记得在我的数据挖掘引论课程上,教师开始很慢,解释了一些数据挖掘可以应用的领域以及一些基本概念。然后突然地,难度迅速上升。这令我的一些同学感到非常沮丧,被这个课程吓到,终于扼杀了他们对数据挖掘的兴趣。所以我想避免在我的博客文章中这样做。我想让事情更轻松随意。因此我尝试用有趣的例子,来使读者更舒服地学习,而不是感到无聊或被吓到。

12.线性回归 作者:futurehau http://www.cnblogs.com/futurehau/p/6105011.html

描述:回归是监督学习的一个重要问题,回归用于预测输入变量和输出变量之间的关系。回归模型是表示输入变量到输出变量之间映射的函数。回归问题的学习等价于函数拟合:使用一条函数曲线使其很好的拟合已知函数且很好的预测未知数据。 回归问题分为模型的学习和预测两个过程。基于给定的训练数据集构建一个模型,根据新的输入数据预测相应的输出。 回归问题按照输入变量的个数可以分为一元回归和多元回归;按照输入变量和输出变量之间关系的类型,可以分为线性回归和非线性回归。

13.线性回归知识及预测糖尿病实例 作者:Eastmount http://blog.csdn.net/eastmount/article/details/52929765

描述:这是一个糖尿病的数据集,主要包括442行数据,10个属性值,分别是:Age(年龄)、性别(Sex)、Body mass index(体质指数)、Average Blood Pressure(平均血压)、S1~S6一年后疾病级数指标。Target为一年后患疾病的定量指标。

14.回归模型LinearRegression简单分析氧化物数据 作者:Eastmount http://blog.csdn.net/eastmount/article/details/60468818

描述:希望这篇文章对你有所帮助,尤其是刚刚接触数据挖掘以及大数据的同学,这些基础知识真的非常重要。如果文章中存在不足或错误的地方,还请海涵~

进阶文章

视频教程

报告

Github 代码

名人主页

VIP内容

题目: A Hierarchy of Limitations in Machine Learning

简介:

“所有模型都是错误的,但有些模型是有用的,”乔治·E·普·博克斯(George E. P. Box)(1979)说。 机器学习专注于概率模型在社会系统中进行预测的有用性,但是直到现在才掌握了这些模型错误的方式以及这些缺点的后果。 本文尝试对机器学习模型在应用于社会时的特定概念,过程和统计局限性进行全面,结构化的概述。 机器学习建模者本身可以使用所描述的层次结构来识别可能的故障点,并思考如何解决这些故障点,并且机器学习模型的使用者在面对有关是否,在何处以及如何应用机器学习的决策时可以知道要问什么。 局限性从量化本身固有的承诺到显示未建模的依存关系如何导致交叉验证作为评估模型性能的方式过于乐观的局限性。

目录:

成为VIP会员查看完整内容
0
21

最新论文

In the fields of clinical trials, biomedical surveys, marketing, banking, with dichotomous response variable, the logistic regression is considered as an alternative convenient approach to linear regression. In this paper, we develop a novel bootstrap technique based on perturbation resampling method for approximating the distribution of the maximum likelihood estimator (MLE) of the regression parameter vector. We establish second order correctness of the proposed bootstrap method after proper studentization and smoothing. It is shown that inferences drawn based on the proposed bootstrap method are more accurate compared to that based on asymptotic normality. The main challenge in establishing second order correctness remains in the fact that the response variable being binary, the resulting MLE has a lattice structure. We show the direct bootstrapping approach fails even after studentization. We adopt smoothing technique developed in Lahiri (1993) to ensure that the smoothed studentized version of the MLE has a density. Similar smoothing strategy is employed to the bootstrap version also to achieve second order correct approximation.

0
0
下载
预览
Top