美文网首页R
第二节 多元线性回归

第二节 多元线性回归

作者: Vector_Wan | 来源:发表于2019-06-10 21:54 被阅读0次

本节主要包括:

思维导图

一、回归模型的引入

1. 模型的一般形式

和一元线性回归一样,回归模型,与理论回归方程为:
y = \beta_0 = \beta_1 x_1+ ... + \beta_p x_p + \epsilon
E(y) =\beta_0 = \beta_1 x_1+ ... + \beta_p x_p

因为多元线性回归一个观测值就不再是一个标量而是一个向量了,所以可能自变量的观测值就变成了(1, x_{11}, ..., x_{1p}),(1, x_{21}, ..., x_{2p}),..., 而对应的因变量的观测值不变,还是 y_1, y_2, ...,因此我们把这些观测值每一行每一行的叠加起来就成为了一个向量或者矩阵。

为了方便,记:
\mathbf y = \begin{bmatrix} y_1\\y_2\\ \vdots \\y_n \end{bmatrix},\mathbf X = \begin{bmatrix} 1&x_{11}& \dots & x_{1p}\\ 1&x_{21}& \dots & x_{2p}\\ \vdots&\vdots& & \vdots\\ 1&x_{n1}& \dots & x_{np}\\ \end{bmatrix}, \mathbf\epsilon = \begin{bmatrix} \epsilon_1\\\epsilon_2\\ \vdots \\\epsilon_n \end{bmatrix}, \mathbf{\beta} = \begin{bmatrix} \beta_1\\\beta_2\\ \vdots \\\beta_n \end{bmatrix}
那么这个时候的多元线性回归的表示就变成了\mathbf y = \mathbf{X\beta}+\mathbf \epsilon, 其中\mathbf X 我们一般称为设计矩阵。

2. 多元线性回归模型的基本假定

为了方便参数估计有下面三个基本假定:

  1. 解释变量x_i是确定性变量,不是随机变量,设计矩阵是满秩矩阵。r(X) = p + 1
  2. 随机误差项的高斯-马尔科夫条件:
    随机误差平均值为 0,随机误差在不同样本点之间不相关。
    \left\{ \begin{array}{c} E(\epsilon_i) =0, i = 1,2,...,n \\ cov(\epsilon_i\epsilon_j) =\left\{ \begin{array}{c}\delta^2,i=j\\ 0,i\neq j\end{array} i ,j = 1,2,... , n \right. \\ \end{array} \right.
  3. 随机误差项的正态假设
    \epsilon \sim N(\mathbf0, \sigma^2 \mathbf{I}_n)

根据以上的假设我们有:
\mathbf y \sim N(\mathbf{X \beta, \sigma^2 \mathbf I_n})

3. 多元线性回归方程的解释

所以如何去理解多元线性回归的含义?我们其实根据理论回归方程,比方说对自变量 x_1求偏导,就会有 \frac{\partial E(y)}{\partial x_1} = \beta_1,注意偏导的含义是控制其余变量不变的。因此这里 \beta_1的含义就是在控制其余因素不变的情况下,我每增加一个单位的 x_1会给我的因变量带来 \beta_1个单位的影响。这也是和一元回归稍微不一样的地方。

二、回归参数的估计

1. 回归参数的最小二乘法估计

我们现在要最小化的函数是:
Q(\hat{\beta_0}, \hat{\beta_1}, ... ,\hat{\beta_p}) = \sum_{i = 1}^n(y_i - \hat{\beta_0} - \hat{\beta_1}x_{i1}-...-- \hat{\beta_p}x_{p1})^2
对每一个需要估计的参数求偏导,我们可以得到一系列的方程组如下:


下面使用矩阵的语言来描述会简单一些:
矩阵方法
最后得到的结果为:

说到这里,我们要提一下我们所得到的矩阵。因为它太重要了,所以需要给它一个单独的定义。

定义:H = X(X^TX)^{-1}X^T 为帽子矩阵。

也就是说,如果我们的观测值是 y (请注意,这里是向量不再是数了,请尽快习惯矩阵的语言)。那么估计值就是 \hat y = Hy。(加了一个小帽子 ^ )

帽子矩阵有很多良好的性质:

  • H 是 n 阶对称阵
  • H 是幂等矩阵
  • H 是投影阵

2. 回归值与残差值

首先先给出一些基本概念:(注意都是向量)

  • 我们称:\hat y = \hat \beta_0 = \hat \beta_1 x_1+ ... + \hat \beta_p x_p经验拟合方程
  • \mathbf {\hat y} = X \hat \beta回归拟合值(回归值 或 拟合值)。
  • \mathbf e= \mathbf y - \mathbf {\hat y}残差
    \mathbf e= \mathbf y - \mathbf {Hy} = (I - H)y
    Ps. \sigma是误差。

下面我们来给出一些结论:

  • 残差 e 的协方差阵D(e) = \sigma^2(I - H),D(e_i) = \sigma^2(1- h_{ii})
  • 误差项方差 \sigma^2 的无偏估计为:
    \hat \sigma^2 = \frac{1}{n - p - 1}SSE = \frac{1}{n - p - 1}(e'e) = \frac{1}{n - p - 1}\sum_{i = 1}^n e_i^2
    这部分的推导回头我有时间再加,见书 P63

3. 极大似然估计

和一元的一样,,

相关文章

  • 机器学习系列(十三)——多元线性回归及knn做回归

    多元线性回归理论 相比于样本只有一个特征值的简单线性回归,多元线性回归往往更能反映研究对象的真实情况。多元线性回归...

  • 回归分析 | R语言 -- 多元线性回归

    多元线性回归 多元线性回归 是 简单线性回归[https://www.jianshu.com/p/f8b2a320...

  • Matlab一元/多元回归(后续会有更新)

    一元线性回归&一元非线性回归 多元回归/逐步回归 多元回归 先画散点图,看有没有线性性质,再决定能不能用多元线性回...

  • 各类统计方法R语言实现(六)

    今天是各类统计方法R语言实现的第六期,我们主要介绍多元线性回归、回归诊断。 多元线性回归 多元线性回归指的是用多个...

  • 2020-02-14

    线性回归:线性回归分为一元线性回归和多元线性回归,一元线性回归用一条直线描述数据之间的关系,多元回归是用一条曲线描...

  • Linear Regression

    二元线性回归 多元线性回归 其中用到

  • 多元线性回归(multiple regression model

    之前学习了单一线性回归,这次主要研究多元线性回归,以及提高多元数据的模型精度的一些方法 1、什么是多元线性回归,我...

  • 多元线性回归2021.3.18

    1.多元线性回归(变量之间相互独立) 当预测变量不止一个时,简单线性回归就变成了多元线性回归,相当于求解多元方程。...

  • Machine-Learning-Day-3

    多元线性回归 Day 3的任务是多元线性回归. 开始任务~ Step1 Data Preprocessing 首先...

  • Linear Regression

    在线性回归模型中,我们分为单元线性回归和多元线性回归(Multivariate Linear Regression...

网友评论

    本文标题:第二节 多元线性回归

    本文链接:https://www.haomeiwen.com/subject/buvxtctx.html