美文网首页工作生活
笔记-梯度下降法

笔记-梯度下降法

作者: lanughing | 来源:发表于2019-06-30 22:00 被阅读0次

梯度下降法:(已最快的速度找到最优解的方法)

自己的理解:有监督的机器学习,利用给定的一批X和Y取解参数,即模型。在线性回归方程的问题上,我们的目的是要求得wo,w1...wn这些参数。用线性代数的方式表达即是W(theta)。根据最小方差的公式可以准确的计算出W。但这在样本和特征(即x1,x2...xn这些因变量)少的情况下还行,在特征值非常多的情况下,如图片的像素点就非常困难。所以采用梯度下降法的方式来解决

基本公式  theta1 = theta0 - gradient*learning_rate

gradient:梯度,即方程的导数,在当时的时刻(theta值)导数的值反应了函数变化量。

我们的目的是找到导数gradient的值=0的时刻对应的theta值,当theta在目标值(最有theta)左边,梯度值小于0,减去梯度导致theta更尽皆目标值。相反在右边梯度大于0,同样使得theta更接近目标值。

learning_rate:学习率,根据经验来调整

对于线性回归的方程,在拥有多个特征的情况下theta不是一个值。而是一个向量。所以一般情况下我们要求得的是每个因变量对应的偏导

线性公式求偏导过程:


求解过程:前部分用线性代数的方式表示,复合函数的求导,偏导数的理解

相关文章

  • 2020-08-19--梯度下降法01

    梯度下降法简介 多元线性回归中的梯度下降法 随机梯度下降法 梯度下降法 的调试 1.梯度下降法简介 不是一个机器学...

  • 梯度下降法

    梯度下降法 本文主要是为了讲解 梯度下降法 的原理和实践,至于什么是梯度下降法,他能做什么,相信百度一下你就都知道...

  • 学习笔记:两种梯度下降法的思考

    在看梯度下降法的时候最初还真没看明白两种梯度下降法的区别,于是昨天散步的时候认真的思考了一下。 两种梯度下降法分别...

  • 最速梯度下降

    梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的...

  • 神经网络优化2

    梯度下降 梯度下降法 批梯度下降法(Batch Gradient Descent,BGD)是最常用的梯度下降形式,...

  • 2019-03-17神经网络——optimizer

    神经网络优化算法,通常有三种:小批量梯度下降法,随机梯度下降法和批量梯度下降法。 小批量梯度下降法 适用于训练数据...

  • 2019-11-01第二课二周优化算法

    指数加权平均: 动量梯度下降法: RMSprop:和动量梯度下降法相似 adam优化算法:将动量梯度下降法和RMS...

  • DL中的各种优化器

    学习笔记 BGD (Batch Gradient Decent)批量梯度下降法 SGD (Stochastic G...

  • 机器学习系列(十六)——随机梯度下降Stochastic Gra

    随机梯度下降法Stochastic Gradient Descent 在之前的梯度下降法解决线性回归问题中,梯度向...

  • 全梯度下降算法从零实现,基于Numpy

    批量梯度下降法BGD Github 批量梯度下降法(Batch Gradient Descent,简称BGD)是梯...

网友评论

    本文标题:笔记-梯度下降法

    本文链接:https://www.haomeiwen.com/subject/efrbcctx.html