美文网首页
机器学习 - 吴恩达版(Stanford)笔记 005-008

机器学习 - 吴恩达版(Stanford)笔记 005-008

作者: Wallace_QIAN | 来源:发表于2018-12-30 17:21 被阅读9次

Topic: cost Function

在Regression中,我们需要去拟合(fit)数据和我们的模型函数。

这样函数和数据集中的一些training data就会不拟合,在几何意义上有距离。

Cost Function就是为了量化的表示函数参数与数据集的契合程度而出现的。

举个例子,对于LR而言,我们要做的是选择合适的theta0和theta1,来让我们的线性函数拟合这个数据集。

由于这是一个很简单的例子,是二维的,因变量只有一个(polynomial)。

所以我们很容易根据中小学的知识得到几何距离公式

其中h_{\theta }(x)是hypothesis function,也就是我们所预测的Regression,而h_{\theta }(x^{(i)})是具体某个training data的预测值

我们寻找最好参数的任务就变成了:

在最简化的情况下,我们连theta0都没有,只有一个theta1.

即hypothesis function穿过数轴原点。  

在本节视频中,我们再来关注Cost Function

这是J函数的等高线图

虽然我们可以通过等高线图来得出结论,但我们真正需要的是一个可以高效的帮助我们找到适合参数的算法,而不是去想办法画等高线图,这个图只是为了帮助我们理解Cost Function J随参数的变化。

好的算法见下一章,Gradient Descent.

相关文章

网友评论

      本文标题:机器学习 - 吴恩达版(Stanford)笔记 005-008

      本文链接:https://www.haomeiwen.com/subject/pgmvlqtx.html