美文网首页
如何评价模型的好坏

如何评价模型的好坏

作者: 当_下 | 来源:发表于2019-11-17 16:04 被阅读0次

1.训练数据集&测试数据集

        将原始数据中的一部分作为训练数据、另一部分作为测试数据。使用训练数据训练模型,再用测试数据看好坏。即通过测试数据判断模型好坏,然后再不断对模型进行修改。

2.accuracy(分类准确度)

accuracy_score:函数计算分类准确率,返回被正确分类的样本比例(default)或者是数量(normalize=False)

在多标签分类问题中,该函数返回子集的准确率,对于一个给定的多标签样本,如果预测得到的标签集合与该样本真正的标签集合严格吻合,则subset accuracy =1.0否则是0.0

3. 超参数

所谓超参数,就是在机器学习算法模型执行之前需要指定的参数

如何选择最佳的超参数,这是机器学习中的一个永恒的问题

超参数网格搜索:

在具体的超参数搜索过程中会需要很多问题,超参数过多、超参数之间相互依赖等等。如何一次性地把我们想要得到最好的超参数组合列出来。sklearn中专门封装了一个超参数网格搜索方法Grid Serach。

在进行网格搜索之前,首先需要定义一个搜索的参数param_search。是一个数组,数组中的每个元素是个字典,字典中的是对应的一组网格搜索,每一组网格搜索是这一组网格搜索每个参数的取值范围。键是参数的名称,值是键所对应的参数的列表。

4. 混淆矩阵

TN:真实值是0,预测值也是0,即我们预测是negative,预测正确了。

FP:真实值是0,预测值是1,即我们预测是positive,但是预测错误了。

FN:真实值是1,预测值是0,即我们预测是negative,但预测错误了。

TP:真实值是1,预测值是1,即我们预测是positive,预测正确了。

5.精准率和召回率

精确率:分母为所有预测为1的个数,分子是其中预测对了的个数,即预测值为1,且预测对了的比例

精准率为我们关注的那个事件,预测的有多准。

召回率:所有真实值为1的数据中,预测对了的个数。

召回率关注的那个事件真实的发生情况下,我们成功预测的比例是多少

6.均方误差MSE

测试集中的数据量m不同,因为有累加操作,所以随着数据的增加 ,误差会逐渐积累;因此衡量标准和 m 相关。为了抵消掉数据量的形象,可以除去数据量,抵消误差。通过这种处理方式得到的结果叫做 均方误差MSE

7.均方根误差RMSE

为了解决量纲的问题,可以将其开方(为了解决方差的量纲问题,将其开方得到平方差)得到均方根误差RMSE(Root Mean Squarde Error)

8.平均绝对误差MAE

要求真实值  与 预测结果  之间的距离最小,可以直接相减做绝对值,加m次再除以m,即可求出平均距离,被称作平均绝对误差MAE(Mean Absolute Error)

从数学角度来分析,RMSE和MAE的量纲相同,但RMSE的结果较大,这是因为RMSE是将错误值平方,平方操作会放大样本中预测结果和真实结果较大的差距。MAE没有放大。而我们就是要解决目标函数最大差距,因为选RMSE更好一点。

9.R Square

对于分子来说,预测值和真实值之差的平方和,即使用我们的模型预测产生的错误。

对于分母来说,是均值和真实值之差的平方和,即认为“预测值=样本均值”这个模型(Baseline Model)所产生的错误。

我们使用Baseline模型产生的错误较多,我们使用自己的模型错误较少。因此用1减去较少的错误除以较多的错误,实际上是衡量了我们的模型拟合住数据的地方,即没有产生错误的相应指标

相关文章

  • 如何评价模型好坏

    数据集(训练&验证&测试)评价分类结果混淆矩阵分类评价指标准确率precision:召回率recallF1-sco...

  • 如何评价模型的好坏

    1.训练数据集&测试数据集 将原始数据中的一部分作为训练数据、另一部分作为测试数据。使用训练数据训练模型,再用测试...

  • 如何评价分类模型好坏

    前言 在上一篇文章中,我们了解了k近邻算法,也学习了KNN算法的流程,并且手动实现了python代码和封装。那么在...

  • 交叉验证(Cross Validation)比较

    模型评价的目的:通过模型评价,我们知道当前训练模型的好坏,泛化能力如何?从而知道是否可以应用在解决问题上,如果不行...

  • 机器学习常用评价指标

    机器学习常用评价指标 在机器学习任务中,如何对模型的好坏对模型的优化/定量评价/改进具有重大的作用,通过不同的指标...

  • 机器学习解决问题的一般过程

    一. 模型与参数 给定输入xi,如何预测输出yi 二. 损失函数(误差函数) 在所有训练样本上评价模型的好坏。 经...

  • 评估聚类模型的兰德指数

    序 聚类模型的好坏如何评价,本次记录其中一种方法--兰德指数 兰德指数

  • 【R-statistics】方差分析

    方差分析(ANOVA) 什么是方差分析 模型可以归纳为在解决预测问题 Q:如何评价预测结果的好坏?A:预测和模型越...

  • 如何评价客户流失预测模型效果

    如何评价客户流失预测模型效果呢? 用来评估客户流失预测模型预测效果好坏的一个重要指标就是提升度了。所谓提升度,简单...

  • 如何评价珍珠好坏?

    如何评价珍珠好坏,简单说一下我们行内的几个判断标准:色泽、大小、形状、瑕疵。 1.珍珠色泽: 古语有云:“珠光宝气...

网友评论

      本文标题:如何评价模型的好坏

      本文链接:https://www.haomeiwen.com/subject/ifurictx.html