美文网首页
ML 监督学习 回归 支持向量机

ML 监督学习 回归 支持向量机

作者: XinY_VV | 来源:发表于2020-03-21 19:00 被阅读0次

首先补充分类问题
SVM不能用于多分类问题,但我们可以用The “One-vs-One” trick for Multi-Class SVMs

SVR(Support Vector Regression,支持向量回归)

使用SVR作回归分析,与SVM一样需要找到一个超平面,不同的是:在SVM中要找出一个间隔(gap)最大的超平面,而在SVR中是定义一个ε,定义虚线内区域的数据点的残差为0,而虚线区域外的数据点(支持向量)到虚线的边界的距离为残差(ξ)。与线性模型类似,希望这些残差(ξ)最小(Minimize)。所以大致上来说,SVR就是要找出一个最佳的条状区域(2ε宽度),再对区域外的点进行回归。

线性可分
Hard Soft
非线性可分

内核函数将数据转换为更高维的特征空间,从而可以执行线性分离。

Kernel

随着 epsilon 增加,该方程被允许远离数据点, 支撑向量减少 ,拟合的更差。

import numpy as np                                 
import matplotlib.pyplot as plt
from sklearn import svm
from sklearn.metrics import mean_squared_error,mean_absolute_error

N=50
np.random.seed(0)
x=np.sort(np.random.uniform(0,6,N),axis=0)     #训练数据集
y=2*np.sin(x)+0.1*np.random.randn(N)
x=x.reshape(-1,1)

svr_rbf=svm.SVR(kernel='rbf',gamma=0.4,C=100)  #高斯核函数
svr_rbf.fit(x,y)                               

svr_linear=svm.SVR(kernel='linear',C=100)      #线性核函数
svr_linear.fit(x,y)

svr_poly=svm.SVR(kernel='poly',degree=3,C=100) #多项式核函数
svr_poly.fit(x,y)

x_test=np.sort(np.random.uniform(0,9,N),axis=0)#测试数据集
y_test=2*np.sin(x_test)+0.1*np.random.randn(N)
x_test=x_test.reshape(-1,1)

y_rbf=svr_rbf.predict(x_test)                  #进行预测
y_linear=svr_linear.predict(x_test)
y_poly=svr_poly.predict(x_test)

plt.figure(figsize=(9,8),facecolor='w')
plt.plot(x_test,y_rbf,'r-',linewidth=2,label='RBF Kernel')
plt.plot(x_test,y_linear,'g-',linewidth=2,label='Linear Kernel')
plt.plot(x_test,y_poly,'b-',linewidth=2,label='Polynomial Kernel')

plt.plot(x,y,'ks',markersize=5,label='train data')
plt.plot(x_test,y_test,'mo',markersize=6,label='test data')

plt.scatter(x[svr_rbf.support_],y[svr_rbf.support_],
            s=200,c='r',marker='*',label='RBF Support Vectors',zorder=10)

plt.show()

print("RBF_mean_absolute_error",mean_absolute_error(y_test,y_rbf))
print("RBF_mean_squared_error",mean_squared_error(y_test,y_rbf))

#用网格搜索交叉检验来寻找最优参数组合
from sklearn.model_selection import GridSearchCV
model=svm.SVR(kernel='rbf')
c_can=np.linspace(105,107,10)
gamma_can=np.linspace(0.4,0.5,10)
svr_rbf=GridSearchCV(model,param_grid={'C':c_can,'gamma':gamma_can},cv=5)
svr_rbf.fit(x,y)
print(svr_rbf.best_estimator_)

高斯核函数具有两个参数:C和gamma。
C是惩罚系数,对误差的宽容度。C值越高,说明越不能容忍出现误差,容易过拟合。C值越小,容易欠拟合。
gamma是选择RBF函数作为kernel后,该函数自带的一个参数,其隐含地决定了数据映射到新的特征空间后的分布,gamma值越大,支持向量越少,gamma值越小,支持向量越多。

相关文章

  • ML 监督学习 回归 支持向量机

    首先补充分类问题SVM不能用于多分类问题,但我们可以用The “One-vs-One” trick for Mul...

  • 支持向量机

    支持向量机(SVMs)是一组用于回归、分类和异常值检测的监督学习方法。 支持向量回归(SVR) 支持向量分类的方法...

  • 机器学习分类

    监督/非监督学习 监督学习 K近邻算法线性回归逻辑回归支持向量机(SVM)决策树和随机森林神经网络 非监督学习 聚...

  • 《深度学习-Java语言实现》学习笔记(1)

    监督学习和无监督学习 监督学习 无监督学习 支持向量机 隐马尔科夫模型 神经网络 逻辑回归 增强学习 机器学习应用...

  • 八.支持向量机(SVM)

    支持向量机(SVM)是非常强大,灵活的有监督学习算法,既可以用于分类,也可以用于回归。 支持向量机其实就是一个边界...

  • Machine Learning: 十大机器学习算法

    机器学习算法分类:监督学习、无监督学习、强化学习 基本的机器学习算法:线性回归、支持向量机(SVM)、最近邻居(K...

  • Machine Learning: 十大机器学习算法

    机器学习算法分类:监督学习、无监督学习、强化学习 基本的机器学习算法:线性回归、支持向量机(SVM)、最近邻居(K...

  • ML 监督学习 分类 支持向量机

    SVM最初被用来解决线性分类问题,加入核方法之后能有效解决非线性问题。 分类学习基本思想:基于训练集在样本空间中找...

  • 机器学习基本知识

    机器学习分类 按有无监督分类1.全监督学习:回归算法,朴素贝叶斯,SVM(支持向量机)2.无监督学习:聚类算法,降...

  • Python 数据科学手册 5.7 支持向量机

    5.7 支持向量机 支持向量机(SVM)是一种特别强大且灵活的监督算法,用于分类和回归。 在本节中,我们将探索支持...

网友评论

      本文标题:ML 监督学习 回归 支持向量机

      本文链接:https://www.haomeiwen.com/subject/xsveyhtx.html