美文网首页
《吴恩达机器学习》学习笔记

《吴恩达机器学习》学习笔记

作者: jimleelcc | 来源:发表于2019-06-27 22:21 被阅读0次



章节2

课时6 模型描述

学习种类:1.监督学习  又分为回归问题(连续型)和分类问题(离散型)

2.无监督学习

课时7 代价函数

公式源地址
单变量线性回归函数 hθ(x) = θ0 + θ1x 

为了使线性回归函数对数据有较好的预测性,即y(i)到hθ(x(i)) 的距离都很小。

故构造代价函数,也称平均误差公式:

上式中m为训练集样本数量,用平方代替绝对值,再将所有样本点求和再求平均

最佳θ0,θ1满足下式:

课时8 代价函数(1)

1.我们希望找到一条与数据拟合的直线,所以我们构造了下面这个假设函数,包括theta0和theta1,随着参数的选择不同,我们会得到不同的直线,和数据相符额直线如下图绿色直线,代价函数是J(theta0,theta1),我们的目标是最小化代价函数

  2.为了更好的使得代价函数J可视化,我们使用一个简化的假设函数,如下图中所示,假设函数只包括一个参数theta1,代价函数和之前的类似,这里我们的目标就是尽量优化J的值。

  3.假设函数和代价函数是需要我们仔细了解的关键函数

    (1)假设函数是在给定theta1的情况下,是一个关于x的函数

    (2)代价函数J是关于theta1的函数,theta1控制着直线的斜率

    (3)假设threta1等于1,我们要弄清楚的是当theta1=1的时候,J(theta1)的值,接下来计算代价函数的第一个值

    这里我们知道J(1)=0

    代价函数是三段直线的高度和。然后代价函数的计算如下:

     (4)当theta1=0的时候,可以计算绘制下图

    (5)当theta1=-0.5的时候,代价函数的值很大,约为5.25

    (6)经过一些列的计算,可以得到下面的值

    (7)对于每一个theta1的值,都对应着一个假设函数,对应着不同的直线,同时也可以找到不同的J(theta1)的值

      所以我们学习算法的目的是选择不同的theta1的值,求出最小的J(theta)的值,这就是线性回归的目标函数

美妙!

课时9 代价函数(2)

别人的笔记

相关文章

  • 《吴恩达 - 机器学习》笔记

    学习资源 b站:机器学习(Machine Learning)- 吴恩达(Andrew Ng)网易:吴恩达《机器学习...

  • 引言

    这个文集是Coursera上吴恩达教授授课的《机器学习》课程的课程笔记与总结,下面是课程的链接:吴恩达教授机器学习...

  • 内容整理(持续更新)

    机器学习基础 视频教程:吴恩达机器学习-网易云公开课笔记地址:机器学习笔记作业练习:https://github....

  • 机器学习笔记

    学习记录,从小白做起。 传统给机器学习 先来镇楼的,吴恩达机器学习:吴恩达机器学习 OCTAVE版本下载:http...

  • 5.machine_learning_LR_Softmax

    机器学习逻辑回归与softmax 补充阅读资料: 吴恩达老师机器学习课程笔记[https://github.com...

  • 30行python代码实现最简单的神经网络

    这篇文章算是看了吴恩达老师的deeplearning视频的课后笔记吧,感谢吴恩达老师致力于机器学习、深度学习的普及...

  • 吴恩达机器学习课程

    吴恩达机器学习课程

  • 机器学习相关资料整理

    初学机器学习,将部分资料整理在此,逐渐完善。 视频资源 吴恩达机器学习 介绍:吴恩达老师关于机器学习的入门级视频...

  • 吴恩达deep_learning_week2_logistic回

    吴恩达deep_learning_week2_logistic回归 标签: 机器学习深度学习 这是吴恩达深度学习里...

  • 神经网络学习算法

    本文为《吴恩达机器学习》课程笔记 神经网络学习 Neural Nerworks Learning 模型表示 上面表...

网友评论

      本文标题:《吴恩达机器学习》学习笔记

      本文链接:https://www.haomeiwen.com/subject/vdsdcctx.html