什么样的情况使用线性回归 线性回归应用有哪些?

[更新]
·
·
分类:行业
4091 阅读

什么样的情况使用线性回归

线性回归应用有哪些?

线性回归应用有哪些?

线性回归(Linear regression)是利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式。
应用场景:
期末成绩:0.7×考试成绩 0.3×平时成绩
房子价格 0.02×中心区域的距离 0.04×城市一氧化氮浓度 (-0.12×自住房平均房价) 0.254×城镇犯罪率
上面两个例子,我们看到特征值与目标值之间建立的一个关系,这个可以理解为回归方程。

线性回归的条件?

线性回归使用之前,有几个前提是一定要考虑的:(1)自变量与因变量是否呈直线关系。(2)因变量是否符合正态分布。(3)因变量数值之间是否独立。(4)方差是否齐性。
其实如果正规地来说,应该是看残差(residual)是否正态、独立以及方差齐。所谓残差,就是因变量的真实值与估计值之间的差值。

线性回归方程判断依据?

线性回归方程是利用数理统计中的回归分析,来确定两种或两种以上变数间相互依赖的定量关系的一种统计分析方法之一。 线性回归也是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。按自变量个数可分为一元线性回归分析方程和多元线性回归分析方程。
中文名
线性回归方程
外文名
Linear regression equation
领域
统计分析
学科
数学
应用
回归分析
简介
在统计学中,线性回归方程是利用最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。(这反过来又应当由多个相关的因变量预测的多元线性回归区别,而不是一个单一的标量变量。)
在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数。不太一般的情况,线性回归模型可以是一个中位数或一些其他的给定X的条件下y的条件分布的分位数作为X的线性函数表示。像所有形式的回归分析一样,线性回归也把焦点放在给定X值的y的条件概率分布,而不是X和y的联合概率分布(多元分析领域)。
模型
理论模型
给一个随机样本,一个线性回归模型假设回归子和回归量之间的关系是除了X的影响以外,还有其他的变数存在。我们加入一个误差项(也是一个随机变量)来捕获除了之外任何对的影响。所以一个多变量线性回归模型表示为以下的形式:
其他的模型可能被认定成非线性模型。一个线性回归模型不需要是自变量的线性函数。线性在这里表示的条件均值在参数里是线性的。例如:模型在和里是线性的,但在里是非线性的,它是的非线性函数[1]。
数据和估计
区分随机变量和这些变量的观测值是很重要的。通常来说,观测值或数据(以小写字母表记)包括了n个值。
我们有个参数需要决定,为了估计这些参数,使用矩阵表记是很有用的。
其中Y是一个包括了观测值的列向量,包括了未观测的随机成分以及回归量的观测值矩阵:
X通常包括一个常数项。
如果X列之间存在线性相关,那么参数向量就不能以最小二乘法估计除非被限制,比如要求它的一些元素之和为0。
古典假设
1)样本是在母体之中随机抽取出来的。
2)因变量Y在实直线上是连续的,
3)残差项是独立同分布的,也就是说,残差是独立随机的,且服从高斯分布。
这些假设意味着残差项不依赖自变量的值,所以和自变量X(预测变量)之间是相互独立的。
在这些假设下,建立一个显示线性回归作为条件预期模型的简单线性回归方程,可以表示为:
求解方法
线性回归模型经常用最小二乘逼近来拟合,但他们也可能用别的方法来拟合,比如用最小化“拟合缺陷”在一些其他规范里(比如最小绝对误差回归),或者在回归中最小化最小二乘损失函数的惩罚。相反,最小二乘逼近可以用来拟合那些非线性的模型。因此,尽管最小二乘法和线性模型是紧密相连的,但他们是不能划等号的[2]。