美文网首页
ML-简单线性回归(一元线性回归)

ML-简单线性回归(一元线性回归)

作者: Norahd | 来源:发表于2023-01-25 02:43 被阅读0次

特点:主要用于解决回归问题,线性回归是许多强大非线性模型的基础(多项式回归,逻辑回归,SVM,神经网络...本质都是线性回归的拓展,寻找最优参数),其结果具有很好的可解释性。

假设样本特征与样本输出标记之间存在线性关系,那么就可以寻找一条直线来最大程度拟合它们之间的关系。
① 简单线性回归:样本特征只有一个的回归拟合(y = ax+ b);
② 多元线性回归:多样本特征与样本输出标记之间的回归拟合。

1、简单线性回归简介

假设样本特征与样本输出标记之间存在线性关系,这个线性关系由最佳拟合的直线方程y = ax+ b所表示,则对于每个样本点x^{(i)},就有预测值\hat y^{(i)} = ax^{(i)} +b,其真值为y^{(i)}。样本点\hat y^{(i)}y^{(i)}差距可由|\hat y^{(i)} - y^{(i)}|所表示,但 绝对值函数y=|x| 并非处处可导,对于寻找函数的极值点很不方便。从而使用任意点可导的二次函数(\hat y^{(i)} - y^{(i)})^{2}来度量真值与预测值的差异更好,考虑所有样本则有\sum^{m}_{i} {(\hat y^{(i)} - y^{(i)})^{2}}。在寻找最优拟合直线的时候,目标就是使得所有样本真值与预测值的差距\sum^{m}_{i} {(\hat y^{(i)} - y^{(i)})^{2}}尽可能小。

一类机器学习算法的基本思路:
找到参数值,使真值与预测值的差距尽可能
\sum^{m}_{i} {(\hat y^{(i)} - y^{(i)})^{2}} \rightarrow \sum^{m}_{i} {(y^{(i)}-ax^{(i)} - b)^{2}}
以上函数又称 损失函数(loss function),描述的是模型没有拟合到样本的部分,也就是损失的部分。与之相对的是效用函数(utility function),效用函数描述的是拟合上的程度。

所有参数学习的套路:通过分析问题,确定问题的损失函数或效用函数;通过最优化损失函数(尽可能小)或者效用函数(尽可能大),获得机器学习的模型。这个套路可在《最优化原理》《凸优化》中系统学习。

2、最优化损失函数

2.1 最小二乘(平方)法求简单线性回归的参数

对于二元二次形式的损失函数J(a,b) = \sum^{m}_{i} {(y^{(i)}-ax^{(i)} - b)^{2}},损失函数里变量分别是ab,它们都对应一个开口向上的二次函数,使得损失函数最小也就意味着这个二元函数取其极小值,开口向上的二次函数的极小值在其导数为零的点取得。所以通过求偏导的形式可得J(a,b)取极小值对应的a,b:
\frac {\partial J(a,b)}{\partial a} = 0,\frac {\partial J(a,b)}{\partial b} = 0
可解得a,b分别为:
a = \frac{\sum^{m}_{i} {(x^{(i)} - \overline {x})(y^{(i)} - \overline y)}}{\sum^{m}_{i} {(x^{(i)} - \overline {x})^{2}}}, b = \overline y - a \overline x

2.2 最小二乘(平方)法求简单线性回归的python实现
class SimpleLinearRegression:
    def __init__(self):
        """初始化 Simple Linear Regression 模型"""
        self.a_= None
        self.b_ = None
    def fit(self,x_train,y_train):
        """根据训练集x_train,y_train训练 Simple Linear Regression 模型"""
        assert x_train.ndim == 1, "Simple Linear Regressor can only solve single feature tarining data."
        assert len(x_train) == len(y_train), "the size of x_train must be equal to the size of y_train"
        
        x_mean = np.mean(x_train)
        y_mean = np.mean(y_train)
        
        
        num = (x_train - x_mean).dot(y_train - y_mean)  ### 参数a的分子部分的向量化运算
        d   = (x_train - x_mean).dot(x_train - x_mean)  ### 参数a的分母部分向的量化运算
        
        self.a_ = num/d
        self.b_ = y_mean - self.a_ * x_mean
        return self
    
    def predict(self,x_predict):
        """给定待预测数据集x_predict,返回表示x_predict的结果向量"""
        assert x_predict.ndim == 1," Simple Linear Regressor can only solve single feature training data."
        assert self.a_ is not None and self.b_ is not None, "must fit before predict!"
        
        return np.array([self._predict(x) for x in x_predict])
    def _predict(self,x_single):
        """给定单个x_single,返回x的预测结果值"""
        return self.a_ * x_single + self.b_
    def __repr__(self):
        return "SimpleLinearRegression()"
    
### 方法调用
x = np.random.random(size = 1000)
y = 2.0 * x + 3.0 + np.random.normal(size = 1000)
reg = SimpleLinearRegression()
reg.fit(x,y)
reg.predict(x_predict)
reg.a_
reg.b_

相关文章

  • 2020-02-14

    线性回归:线性回归分为一元线性回归和多元线性回归,一元线性回归用一条直线描述数据之间的关系,多元回归是用一条曲线描...

  • ML-简单线性回归(一元线性回归)

    特点:主要用于解决回归问题,线性回归是许多强大非线性模型的基础(多项式回归,逻辑回归,SVM,神经网络...本质都...

  • 机器学习第4天:线性回归及梯度下降

    联系我:ke.zb@qq.com我的技术博客:明天依旧可好-CSDN 一、简单线性回归(即一元线性回归) 线性回归...

  • 2020-08-13--线性回归01

    线性回归算法简介 解决回归问题 思想简单,容易实现 许多强大的非线性模型的基础 结果具有很好的 线性回归分为一元线...

  • Matlab一元/多元回归(后续会有更新)

    一元线性回归&一元非线性回归 多元回归/逐步回归 多元回归 先画散点图,看有没有线性性质,再决定能不能用多元线性回...

  • 机器学习

    1.线性回归 1.1一元线性回归 y=a+bx 1.2多元线性回归 y=a+b1x1+b2x2+...+bnxn ...

  • 线性回归代码实现

    线性回归是比较常用的模型。本文会简单介绍线性回归的原理,以及如何用代码实现线性回归模型。 什么是线性回归 简单举一...

  • 3 线性回归算法

    线性回归分为: 简单线性回归:特征数量只有一个。 多元线性回归:特征数量有多个。 1 简单线性回归 寻找一条直线,...

  • 一元线性回归方程

    目标:写清楚一元线性回归分析的全部过程。 一元线性回归分析步骤: 确定变量variable:independent...

  • Multiple Regression——多元回归

    在上一节线性回归内容中,我们提到了多元线性回归例如下图中,左边是一元线性回归,右边是二元线性回归,中间为体长观察值...

网友评论

      本文标题:ML-简单线性回归(一元线性回归)

      本文链接:https://www.haomeiwen.com/subject/ounrhdtx.html