逻辑回归的代价函数:
与线性回归一样,它的梯度下降算法类似:
重复直到收敛 {
}
计算后会得到:
计算后得到的和线性回归的看上去没有区别,但是两者的不同。
线性回归的是:
逻辑回归的是:
因为预测函数改变了,所以两者的梯度下降算法是不一样的。
举例说明
假设数据集有5个样本,每个样本有2个特征值,即如下:
初始化,然后在输入矩阵加上一列
,
先计算预测函数:
代入函数,可以的得到预测结果
代入J的公式
此时代价函数的值为:
下面计算第一次梯度下降的梯度值,代入下面的公式
即:
假设,则
再次计算代价函数为:
这个例子用矩阵和向量来进行了代价函数和梯度下降的计算。
转载自:
https://codeeper.com/2020/01/11/tech/machine_learning/classification_gradient_descent.html
网友评论