美文网首页
线性回归

线性回归

作者: SummerTan | 来源:发表于2020-03-22 22:14 被阅读0次

损失函数介绍简单线性回归最小二乘法梯度下降求解线性回归评价指标多元线性回归链接

损失函数介绍

损失函数描述了单个样本预测值和真实值之间误差的程度。用来度量模型一次预测的好坏。

损失函数是衡量预测模型预测期望结果表现的指标。损失函数越小,模型的鲁棒性越好。。

常用损失函数有:

  • 0-1损失函数:用来表述分类问题,当预测分类错误时,损失函数值为1,正确为0

  • 平方损失函数:用来描述回归问题,用来表示连续性变量,为预测值与真实值差值的平方。(误差值越大、惩罚力度越强,也就是对差值敏感)

  • 绝对损失函数:用在回归模型,用距离的绝对值来衡量

  • 对数损失函数:是预测值Y和条件概率之间的衡量。事实上,该损失函数用到了极大似然估计的思想。P(Y|X)通俗的解释就是:在当前模型的基础上,对于样本X,其预测值为Y,也就是预测正确的概率。由于概率之间的同时满足需要使用乘法,为了将其转化为加法,我们将其取对数。最后由于是损失函数,所以预测正确的概率越高,其损失值应该是越小,因此再加个负号取个反。

以上损失函数是针对于单个样本的,但是一个训练数据集中存在N个样本,N个样本给出N个损失,如何进行选择呢?这就引出了风险函数。

1、损失函数:单个样本预测值和真实值之间误差的程度。

2、期望风险:是损失函数的期望,理论上模型f(X)关于联合分布P(X,Y)的平均意义下的损失。

3、经验风险:模型关于训练集的平均损失(每个样本的损失加起来,然后平均一下)。

4、结构风险:在经验风险上加上一个正则化项,防止过拟合的策略。

简单线性回归

简单线性回归方程 ​

损失函数为:平方损失函数 ​

当损失函数最小,即L=0时,求解a和b

最小二乘法

对a和b求偏导,

image.png

梯度下降求解

梯度下降就是按照梯度的方向改变​的值,因为梯度的方向就是使损失函数变化最快的方向

批量梯度下降

每次更新​要保证所有样本的代价函数下降最快

img

于是

img

随机梯度下降**

每次更新​ 保证某一个样本的代价函数下降的最快

小批量梯度下降

每次更新​ 保证k个样本的代价函数下降的最快

线性回归评价指标

均方误差MSE:指参数估计值与参数真值之差平方的期望值;

均方根误差RMSE:是均方误差的算术平方根

平均绝对MAE:绝对误差的平均值

R方:​

R^2 = 1- \frac{\sum_{i=1}^n(Y_i-Y_i')^2}{\sum_{i=1}^n(Y_i-\bar Y)^2}

调用

mean_squared_error(y_test,y_predict)
mean_absolute_error(y_test,y_predict)
r2_score(y_test,y_predict)</pre>

多元线性回归

简单线性回归只需要计算前两项,多元线性回归需要计算n+1个指标

​
class LinearRegression:
​
 def __init__(self):
 """初始化Linear Regression模型"""
 self.coef_ = None    # 系数(theta0~1 向量)
 self.interception_ = None   # 截距(theta0 数)
 self._theta = None  # 整体计算出的向量theta
​
 def fit_normal(self, X_train, y_train):
 """根据训练数据X_train,y_train训练Linear Regression模型"""
 assert X_train.shape[0] == y_train.shape[0], \
 "the size of X_train must be equal to the size of y_train"
 # 正规化方程求解
 X_b = np.hstack([np.ones((len(X_train), 1)), X_train])
 self._theta = np.linalg.inv(X_b.T.dot(X_b)).dot(X_b.T).dot(y_train)
​
 self.interception_ = self._theta[0]
 self.coef_ = self._theta[1:]
 return self
​
 def predict(self, X_predict):
 """给定待预测的数据集X_predict,返回表示X_predict的结果向量"""
 assert self.interception_ is not None and self.coef_ is not None, \
 "must fit before predict"
 assert X_predict.shape[1] == len(self.coef_), \
 "the feature number of X_predict must be equal to X_train"
 X_b = np.hstack([np.ones((len(X_predict), 1)), X_predict])
 y_predict = X_b.dot(self._theta)
 return y_predict
​
 def score(self, X_test, y_test):
 """很倔测试机X_test和y_test确定当前模型的准确率"""
 y_predict = self.predict(self, X_test)
 return r2_score(y_test, y_predict)

​
 def __repr__(self):
 return "LinearRegression()"</pre>

调用

from myAlgorithm.model_selection import train_test_split
from myAlgorithm.LinearRegression import LinearRegression
​
X_train, X_test, y_train, y_test = train_test_split(X, y, seed = 666)
​
reg = LinearRegression()
reg.fit_normal(X_train, y_train)
​
reg.coef_
输出:
array([-1.18919477e-01,  3.63991462e-02, -3.56494193e-02,  5.66737830e-02,
 -1.16195486e+01,  3.42022185e+00, -2.31470282e-02, -1.19509560e+00,
 2.59339091e-01, -1.40112724e-02, -8.36521175e-01,  7.92283639e-03,
 -3.81966137e-01])
​
reg.interception_
输出:
34.16143549622471
​
reg.score(X_test, y_test)
输出:
0.81298026026584658</pre>

链接

模型之母:简单线性回归&最小二乘法

模型之母:简单线性回归的代码实现

模型之母:多元线性回归

相关文章

  • 机器学习实战——回归

    本章内容】 线性回归 局部加权线性回归 岭回归和逐步线性回归 例子 【线性回归】 wHat = (X.T*X).I...

  • 线性回归模型

    参考:1.使用Python进行线性回归2.python机器学习:多元线性回归3.线性回归概念 线性回归模型是线性模...

  • 通俗得说线性回归算法(二)线性回归实战

    前情提要:通俗得说线性回归算法(一)线性回归初步介绍 一.sklearn线性回归详解 1.1 线性回归参数 介绍完...

  • 第一次打卡

    线性回归主要内容包括: 线性回归的基本要素线性回归模型从零开始的实现线性回归模型使用pytorch的简洁实现线性回...

  • 2020-02-14

    线性回归:线性回归分为一元线性回归和多元线性回归,一元线性回归用一条直线描述数据之间的关系,多元回归是用一条曲线描...

  • 逻辑回归和线性回归对比

    简单说几点 线性回归和逻辑回归都是广义线性回归模型的特例。他们俩是兄弟关系,都是广义线性回归的亲儿子 线性回归只能...

  • 算法概述-02

    1.逻辑回归和线性回归的联系和区别: 逻辑回归和线性回归的都是广义的线性回归。 线性回归是根据最小二乘法来建模,逻...

  • 【机器学习实践】有监督学习:线性分类、回归模型

    线性模型 为线性模型 分类和回归的区别 分类:离散回归:连续本文主要关注线性回归模型 常用线性回归模型类型 OLS...

  • 统计学习基础复习浓缩版

    1.简单线性回归 2.多元线性回归 3.多项式回归 4.广义线性回归(含逻辑斯谛回归) 广义线性回归模型通过拟合响...

  • Linear Regression

    在线性回归模型中,我们分为单元线性回归和多元线性回归(Multivariate Linear Regression...

网友评论

      本文标题:线性回归

      本文链接:https://www.haomeiwen.com/subject/lisbyhtx.html