美文网首页
逻辑回归总结

逻辑回归总结

作者: whemy | 来源:发表于2020-04-11 23:32 被阅读0次

1、对逻辑回归的理解

(1)逻辑回归解决分类的问题

线性回归不能解决分类问题,但是如果将样本的特征和样本发生的概率联系起来,即预测的是样本发生的概率是多少,就可以将回归的方法应用于分类问题。由于概率是一个数,因此被叫做“逻辑回归”。

在线性回归算法的例子中,我们进行房价预测得到的结果是一个数值,但是我们在逻辑回归算法中,得到的预测值是一个概率,然后在概率的基础上多做一步操作,得到分类的结果。如设置阈值为0.5,如果得到的概率大于0.5就为正,否则为负,则可用数学表达式表达如下:

因此可以看出,在回归问题上再多做一步,就可以作为分类算法来使用了。逻辑回归只能解决二分类问题,如果是多分类问题,LR本身是不支持的。并且,需要注意的是,一般的回归问题得到的值是没有限制的,值域从负无穷到正无穷,而对于概率来说,其值域是[0,1]。如果直接使用线性回归得到的结果拟合概率结果的可信程度较差。

(2)sigmoid函数

sigmoid函数表达式如下:

在学术界被称为sigmoid函数,是在数据科学领域,特别是神经网络和深度学习领域中非常重要的函数!。其图像如下图所示,呈S状,因此也被称为“S函数”。当t趋近于正无穷时,函数值趋近于1;当t趋近于负无穷时,函数值趋近于0。因此该函数的值域为(0,1)。

将效用函数之差(同样是线性回归模型)带入sigmoid函数中,当t>0时,得到的结果是概率值p>0.5;当t<0时,得到的结果是p<0.5。因此,实际上我们得到是这样的公式:

至此,得到大名鼎鼎的逻辑回归模型,形式如下:

(3)从对数几率看逻辑回归

在“对数线性回归”的公式中,可以改写为。实际上是在求输入空间X到输出空间y的非线性函数映射。对数函数的作用是将线性回归模型的预测值与真实标记联系起来。

因此可以得到一个一般意义上的单调可微的“联系函数”:。其本质就是给原来线性变换加上一个非线性变换(或者说映射),使得模拟的函数有非线性的属性,但本质上调参还是线性的,主体是内部线性的调参。

那么对于解决分类问题的逻辑回归来说,我们需要找到一个“联系函数”,将线性回归模型的预测值与真实标记联系起来。

将“概率”转换为“分类”的工具是“阶梯函数”:

但是这个阶梯函数不连续,不能作为“联系函数”g,因此使用对数几率函数来在一定程度上近似阶梯函数,将线性回归模型的预测值转化为分类所对应的概率。

如果另y为正例,1-y为负例,所谓的“几率”就是二者的比值y/1+y。几率反映了样本x为正例的相对可能性。“对数几率”就是对几率取对数ln(y/1+y),对数几率实际上就是之前提到的sigmoid函数,将线性模型转化为分类。将如下公式:

代入到对数几率中,则得到如下公式:

可以看出,sigmoid实际上就是用线性回归模型的预测结果取逼近真实值的对数几率,因此逻辑回归也被称为“对数几率回归”。

2、逻辑回归的损失函数

逻辑回归和线性回归最大的区别就是:逻辑回归解决的是分类问题,得到的y要么是1,要么是0。而我们估计出来的p是概率,通过概率决定估计出来的p到底是1还是0。因此,也可以将损失函数分成两类:

(1)如果给定样本的真实类别y=1,则估计出来的概率p越小,损失函数越大(估计错误)

(2)如果给定样本的真实类别y=0,则估计出来的概率p越大,损失函数越大(估计错误)

因此可以想到如下函数:

当y=1时,损失函数为-log(p)。特点是:p越趋于0,损失(loss)越大;越趋于1,损失(loss)越小。当y=0时,损失函数为-log(1-p),特点是,p越趋近于1,损失越大,越趋近于0,损失越小。

由于模型是个二分类问题,分类结果y非0即1,因此我们可以使用一个巧妙的方法,通过控制系数的方法,将上面的两个式子合并成一个:

以上是对于单个样本的误差值,那么求整个集合内的损失可以取平均值:

然后,将p替换成sigmoid函数,得到逻辑回归的损失函数如下:

相关文章

  • 逻辑回归模型

    1.逻辑回归介绍2.机器学习中的逻辑回归3.逻辑回归面试总结4.逻辑回归算法原理推导5.逻辑回归(logistic...

  • 2018-08-10 机器学习面试

    逻辑回归(LR)个人总结篇

  • 逻辑回归的理解与python示例

    逻辑回归(2018-11-4) 注:根据唐宇迪老师视频总结,如有侵权,请联系本人 一、逻辑回归相关概念 1.1逻辑...

  • 回归算法学习

    回归算法是机器学习中的经典算法之一,本文是对学习线性回归和逻辑回归算法进行的总结,线性回归与逻辑回归算法解决的分别...

  • ML梳理02 | 线性回归、逻辑回归

    关于线回归、逻辑回归,各位大神总结的很精辟了,下面收藏几个好的讲解,以备忘。 逻辑回归三部曲 机器学习系列(1)_...

  • 【面试】逻辑回归

    逻辑回归的常见面试点总结(博客园)LR(逻辑回归) 为什么使用sigmoid函数 1. 基本概念 一句话概括:逻辑...

  • 逻辑回归LR总结

    1. LR原理 逻辑回归是二分类模型,本质是线性分类器(wx+b=0)。但是,它将特征的线性组合作为自变量,然后利...

  • 逻辑回归总结

    1、面试:一句话解释逻辑回归 LR是一种用于分类问题的对数线性判别式模型,由条件概率表示,其形式为参数化的逻辑斯蒂...

  • 逻辑回归总结

    1)目的:将数据进行二分类2)前提:假设数据符合伯努利分布3)模型:sigmoid函数4)损失函数:极大似然函数 ...

  • 逻辑回归总结

    一、逻辑回归来源 据线性可分可以使用线性分类器,如果数据线性不可分,可以使用非线性分类器,这里似乎没有逻辑回...

网友评论

      本文标题:逻辑回归总结

      本文链接:https://www.haomeiwen.com/subject/abnpmhtx.html