Python随机森林算法入门和性能评估

作者: statr | 来源:发表于2019-06-21 23:59 被阅读5次

决策树是各种机器学习任务的常用方法。 决策树是比较能满足于数据挖掘的方法,因为它在特征值的缩放和其他各种转换下保持不变,对无关特征是可靠的,而且能生成可被检查的模型。
然而,生长很深的树容易学习到高度不规则的模式,即过学习,在训练集上具有低偏差和高方差的特点。随机森林是平均多个深决策树以降低方差的一种方法,其中,决策树是在一个数据集上的不同部分进行训练的。这是以偏差的小幅增加和一些可解释性的丧失为代价的,但是在最终的模型中通常会大大提高性能。

简单来说,随机森林是一堆的决策树组成的,每一个决策树有一个结果,看有多少个决策树对同一个Y进行了投票我们就可以确定Y。分类就是少数服从多数,回归就是各个决策树去平均值
随机森林是在机器学习里面是一个能达到非常非常好的分类回归结果的模型,大家经常看到的datacastle的那类的数据比赛,也是非常多使用随机森林的。我们直接拿随机森林进行分类或回归,一般也能得到比较好的结果。绝大多数情况下,随机森林都会比线性回归、logistic分类、K近邻、决策树要好。
在python的sklearn中,随机森林的实现是非常简单的。

from sklearn import ensemble
rf = ensemble.RandomForestClassifier(n_estimators=n)
rf = ensemble.RandomForestRegressor(n_estimators=n)

rf.fit(X,y)

具体关于随机森林的内容,请参考维基百科
下面我们来看看具体的随机森林怎么实现

1、导入相关的库

import pandas as pd
from sklearn.model_selection import cross_val_score
import numpy 
from sklearn.preprocessing import LabelEncoder
from sklearn import linear_model
from sklearn import ensemble

2、准备数据

iris = pd.read_csv('http://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data',header=None)
iris.columns=['SepalLengthCm','SepalWidthCm','PetalLengthCm','PetalWidthCm','Species']

le = LabelEncoder()
le.fit(iris['Species'])
features =  ['SepalLengthCm','SepalWidthCm','PetalLengthCm','PetalWidthCm']
X = iris[features]
y = le.transform(iris['Species'])

这里我们用了sklearn的LabelEncoder对文本分类转换为离散的数值分类值。

3、建立模型

rf = ensemble.RandomForestClassifier(n_estimators=35)
rf.fit(X,y)
score = numpy.mean(cross_val_score(rf,X,y,cv=5,scoring='accuracy'))
print('平均性能得分:'+str(score))
print("特征重要性:"+str(rf.feature_importances_))

平均性能得分:0.96
特征重要性:[ 0.12148767 0.03169986 0.42510402 0.42170846]
可以看出,第二个特征的重要性最低,对分类影响不大。

4、和logistic分类进行性能对比

lm = linear_model.LogisticRegression()
score = numpy.mean(cross_val_score(lm,X,y,cv=5,scoring='accuracy'))
print('logistic回归模型平均性能得分:'+str(score))

logistic回归模型平均性能得分:0.96
可以看logistic分类模型和随机森林模型基本上性能相当。

5、回归

参考上述内容,我们一次性进行回归分析。

features =  ['SepalLengthCm','SepalWidthCm']
X = iris[features]
y = iris['PetalWidthCm']
rf = ensemble.RandomForestRegressor(n_estimators=15)
rf.fit(X,y)
score = numpy.mean(-cross_val_score(rf,X,y,cv=5,scoring='neg_mean_squared_error'))

print('随机森林回归模型平均性能得分:'+str(score))
print("随机森林回归模型特征重要性:"+str(rf.feature_importances_))

##我们尝试用线性回归进行模型对比。
lm = linear_model.LinearRegression()
score = numpy.mean(-cross_val_score(lm,X,y,cv=5,scoring='neg_mean_squared_error'))
print('线性回归模型平均性能得分:'+str(score))

随机森林回归模型平均性能得分:0.19580594338
随机森林回归模型特征重要性:[ 0.7919942 0.2080058]
线性回归模型平均性能得分:0.191705851089
可以看出来随机森林比线性回归模型稍微好了一点点。

相关文章

  • Python随机森林算法入门和性能评估

    决策树是各种机器学习任务的常用方法。 决策树是比较能满足于数据挖掘的方法,因为它在特征值的缩放和其他各种转换下保持...

  • 机器学习算法概述:随机森林&逻辑回归

    摘要:机器学习算法入门介绍:随机森林与逻辑回归! 随机森林是用于分类和回归的监督式集成学习模型。为了使整体性能更好...

  • 随机森林算法入门(python)

    翻译自:http://blog.yhat.com/posts/python-random-forest.html ...

  • 2020-04-24

    达达算法面试:1、随机森林2、boosting和bagging区别3、衡量模型好坏的方法4、python yiel...

  • 集成学习之Bagging和RF

    一、什么是随机森林 二、随机森林的两个随机 三、随机森林算法过程 四、为什么如此受欢迎 五、随机森林算法的优缺点 ...

  • 使用randomForest包进行随机森林分析

    1. 简介 随机森林是机器学习中的一种分类算法,这个算法在之前分享的TCGA生存模型的构建以及模型预测和评估[ht...

  • 随机森林01

    RandomForestClassifier 随机森林是非常具有代表性的Bagging集成算法,它的所有基评估器都...

  • python实现随机森林算法

    用决策树实现一个根据用户的信息判断用户是否逾期的分类算法代码实现。 首先,我们对数据进行预处理,填充缺失值,数据集...

  • 【火炉炼AI】机器学习012-用随机森林构建汽车评估模型及模型的

    【火炉炼AI】机器学习012-用随机森林构建汽车评估模型及模型的优化提升方法 (本文所使用的Python库和版本号...

  • 5-随机森林

    算法简介 决策树的主要缺点在于经常会对训练集过拟合,泛化性能较差。随机森林是解决这个问题的一种方法。随机森林本质上...

网友评论

    本文标题:Python随机森林算法入门和性能评估

    本文链接:https://www.haomeiwen.com/subject/mmwpqctx.html