美文网首页
Day 2 评估指标

Day 2 评估指标

作者: 瑶瑶_2930 | 来源:发表于2018-08-30 23:01 被阅读0次

混淆矩阵

Guessed Positive Guessed Negative
Positive True Positives False Negatives
Negative False Negatives True Negatives

准确率 (Accuracy)

  • Code
from sklearn.metrics import accuracy
accuracy_score (y_true, y_pred)
  • 准确率不适用的情形
    e.g Credit Card Fraud
    The model says all the transactions are good. This model is not catching any of the bad ones. And the point of the model is to catch the fraudulent transactions.

假负例与假正例

不同情况下假负例与假正例,这两种错误判断对结果的影响不同

  • 医疗模型
    positive :病人 此处,FP-->ok, FN --> not ok => ok if not all are sick, find all the sick people. 找到的人不一定要全是病人,但最好判断为健康人的人都是健康人
  • 垃圾邮件检测器模型
    positive :垃圾邮件 此处,FP--> not ok, FN--> ok => don't necessarily need to find all the spam ,better be spam. 不一定要找到所有的垃圾文件,但最好判断为垃圾邮件的都是垃圾邮件
  • 由此引出 精度和召回率

精度 (Precision)

判断的正例中真正例的比例 --> 更希望判断的垃圾邮件更准确

召回率 (Recall)

实际的正例中真正例的比例 --> 可以看做算法的覆盖范围 -->更希望发现更多的患病者 重点:发现了多少

F1得分

调和平均数(Harmonic Mean) 始终比arithmetic mean 更小,更接近于较小的那个数。
F1 Score = Harmonic Mean (Precision, Recall)
= 2(PrecisionRecall)/(Precision+Recall)

F- b(beta)得分

F0.5 score --> 更重视precision -->beta越小越接近精度
F2 score --> recall
Fb score

Screen Shot 2018-08-30 at 10.41.36 PM.png

ROC 曲线 (Receiver Operating Characteristic)

回归指标

  • Mean Absolute Error(平均绝对误差)
    预测值与真实值差距的平均值
from sklearn.metrics import mean_absolute_error
from sklearn.linear_model import LinearRegression

classifier = LinearRegression()
classifier.fit(X,y)

guess = classfier.predict(X)
error = mean_absolute_error(y, guesses)

但绝对值函数不便于求导,对梯度下降不适用,所以更常用的是均方误差

  • Mean Squared Error (均方误差)
    平方
from sklearn.metrics import mean_squared_error
from sklearn.linear_model import LinearRegression

classifier = LinearRegression()
classifier.fit(X,y)

guess = classfier.predict(X)
error = mean_squared_error(y, guesses)
  • R2 Score
    通过将我们的模型与最简单的可能模型(取平均值然后花一条直线)相比得出
    Screen Shot 2018-08-30 at 10.58.07 PM.png
from sklearn.metrics import r2_score

y_true = [1, 2, 4]
y_pred = [1.3, 2.5, 3.7]

r2_score(y_true, y_pred)

附:今日题目:什么是overfitting,什么是underfitting,各自该如何解决?

解答

  • 过拟合
    • 解释:把训练样本自身一些特点当作了所有潜在样本都会具有的一般性质,导致泛化能力下降
    • 解决办法:
      - 经验误差最小化
      - 重新洗清数据
      - 增大训练量
      - 采用正则化方法
  • 欠拟合
    • 解释:对训练样本的一般性质尚未学好
    • 解决办法:
      - 决策树中拓展分支
      - 在神经网络学习中增加训练轮数
      - 添加其他特征项
      - 添加多项式特征
      - 减少正则化参数
      (解决方法参考了 13-huan-北京 同学)

相关文章

  • Day 2 评估指标

    混淆矩阵 准确率 (Accuracy) Code 准确率不适用的情形e.g Credit Card FraudTh...

  • 深度学习-回归问题的评估指标:MAE, MAPE, MSE, R

    回归问题常用的评估指标 回归问题常用的评估指标包括:MAE, MAPE, MSE, RMSE, R2_Score等...

  • 模型性能评估

    目录 1、模型评估指标 2、总结 1、模型评估指标 2、总结:本文以思维导图的方式罗列了二分类中模型评估中常用的指...

  • 《绩效管理》--绩效指标与标准

    1、什么是绩效评估指标?绩效评估指标有哪些分类? 评估指标指的是评估因子或评估项目。 根据评估内容分:1)工作业绩...

  • 运营基础(2)

    一、运营工作流程和全貌 1、制定策略 (1)评估产品阶段 (2)评估产品形态 (3)评估当前数据 2、分解指标 (...

  • 机器学习笔记(2):模型的评估指标

    本文来自之前在Udacity上自学机器学习的系列笔记。这是第2篇,介绍了模型的评估指标。 1.评估指标 不同的模型...

  • 评估指标

    机器学习或者是日常生活中,遇见的往往是二分类问题比较多,二分类模型的模型评价准则很多,Auc_score,F1_s...

  • 评估指标

    ==用于衡量模型的最终效果== 一、背景 在学习tensorflow的初级阶段,会常常搞不懂,metrics的具体...

  • 关于模型评估指标,可比性,LOSS,AUC,上下限

    模型评估可以从多维度多指标进行评估。 这里只谈论指标。我们常用的指标,logloss,mse,auc(GAUC)等...

  • 2019-05-30(模型评估方法)

    参考原文 混淆矩阵 评估指标 基本评估指标 召回率(recall)\灵敏度(sensible):TP / (TP ...

网友评论

      本文标题:Day 2 评估指标

      本文链接:https://www.haomeiwen.com/subject/ebudwftx.html