美文网首页
李宏毅机器学习——回归

李宏毅机器学习——回归

作者: migugu | 来源:发表于2022-05-17 10:55 被阅读0次

回归定义

Regression 就是找到一个函数 Function ,通过输入特征 x,输出一个数值 Scalar

模型步骤

  • Step 1: 模型假设
  • Step 2: 模型评估
  • Step 3: 模型优化

Step 1:模型假设

线性模型 Linear Model:

y = b + w \cdot x_{i}

Step 2: 模型评估

损失函数 Loss Function:

以线性模型为例:
L(f)=\sum_{i=1}^{n}{(y_i - f(x_i))}^2
L(w,b)=\sum_{i=1}^{n}({y_i - (b + w \cdot x_i)})^2

Step 3: 模型优化

找到使得损失函数最小的f^*

f^*=arg \min _f L(f)

  • 最小二乘法: 计算可能极为复杂
    Example
    \left\{ \begin{array}{lr} \dfrac{\partial L}{\partial b} = 0 , \\ & \\ \dfrac{\partial L}{\partial w} = 0 & \end{array} \right.

    \left\{ \begin{array}{lr} 2 \sum_{i=1}^{n}{(y_i-(b+w x_i))} = 0, \\ & \\ 2 \sum_{i=1}^{n}{(y_i-(b+w x_i))x_i} = 0 \end{array} \right.

    化简, 得
    \left\{ \begin{array}{lr} nb + w\sum_{i=1}^{n}x_i=\sum_{i=1}^{n}{y_i}, \\ & \\ b\sum_{i=1}^{n}x_i + w\sum_{i=1}^{n}{x_i^2}=\sum_{i=1}^{n}{y_i} \end{array} \right.

    \left\{ \begin{array}{lr} b + w \bar x = \bar y, \\ & \\ b\bar x + w \bar{x^2} = \bar{xy} \end{array} \right.

  • 梯度下降

    Example 1: w^* = arg \min _{w} L(w)

    1. 随机选取一个初始点 w^0
    2. 计算微分 \frac{\mathrm{d} L}{\mathrm{d} w} |_{w =w^0}, 判断w_0移动方向
      w^1 \leftarrow w^0 - \eta \dfrac{\mathrm{d} L}{\mathrm{d} w} |_{w =w^0}
      其中\eta为学习率
      • 大于0向右移动 (增加w)
      • 小于0向左移动 (减少w)
    3. 计算微分 \frac{\mathrm{d} L}{\mathrm{d} w} |_{w =w^2}, 继续更新w
    4. ....
    5. 直至找到最低点

    Example 2: w^*, b^* = arg \min _{w, b} L(w, b)

    1. 随机选取w^0, b^0
    2. 计算偏微分 \frac{\partial L}{\partial w} |_{w =w^0, b=b^0}, \frac{\partial L}{\partial b} |_{w =w^0, b=b^0}, 根据学习率更新w, b
    3. ....
    4. 直至找到最低点
Gradient Decent

梯度下降面临的挑战

Gradient Decent Challenges

更复杂的模型

N次线性模型

过拟合问题

优化:

  1. 融合不同参数的线性模型
  2. 加入更多特征
  3. 在损失函数中加入正则化项

实验

回归实验

参考资料

李宏毅机器学习笔记

李宏毅机器学习视频课

相关文章

网友评论

      本文标题:李宏毅机器学习——回归

      本文链接:https://www.haomeiwen.com/subject/bbfkcrtx.html