美文网首页我爱编程
读书笔记-《机器学习实战》

读书笔记-《机器学习实战》

作者: kelololo | 来源:发表于2018-02-26 19:18 被阅读0次

《机器学习实战》

介绍:本书没有从理论角度来揭示机器学习算法背后的数学原理,而是通过“原理简述+问题实例+ 实际代码+运行效果”来介绍每一个算法。本书的代码采用Python语言编写

主要任务

回归:用于预测数值型数据

分类和回归都属于监督学习

于监督学习对应是无监督学习,此时数据没有类别信息,也不会给定目标值。在无监督学习中,将数据集合分成由类似的对象组成的多个类的过程被称为聚类;将寻找描述数据统计值的过程称之为密度估计。此外,无监督学习还可以减少数据特征的维度。

表1-2列出了机器学习的主要任务,以及解决相应问题算法。

1-2.png
1.4 如何选择合适的算法

选择实际可用算法需考虑:1、使用机器学习算法的目的,2、需要分析或收集什么数据

首先考虑使用机器学习算法的目的。如果想要预测目标变量的值,可以选择监督学习算法,否则选无监督学习算法。

目标变量类型:离散型[是/否]|[1/2/3][A/B/C]===》分类算法。连续数值[0.0100.0][+∞ -∞]===》回归算法

1.5 开发机器学习应用程序的步骤

(1)收集数据(2)准备输入数据(3)分析输入数据(4)训练算法 (5)测试算法 (6)使用算法

1.6 Python 语言的优势

选择Python原因:(1)python语法清晰 (2)易于操作纯文本文件 (3)使用广泛,存在大量的开发文档。

1.6.1 可执行伪代码
1.6.2 Python比较流行
1.6.3 Python语言的特色
1.6.4 Python语言的缺点

性能问题

1.7 NumPy函数库基础

NumPy 函数库中有两种数据类型(矩阵matrix和数组array),输出结果完全不同,其中matrix与MATLAB中matrices等价。

调用mat()函数可以将数据转化为矩阵,输入:


randMat=mat(random.rand(4,4))

#随机函数产生矩阵

randMat.I

#.I操作符实现了矩阵求逆的运算

invRandMat=randMat.I

myEye=randMat*invRandMat

myEye-eye(4)

第二章k-近邻算法

本章内容

k-近邻分类算法

从文本文件中解析和导入数据

使用Matplotlib创建扩散图

归一化数值

2.1 k-近邻算法概述

k-近邻算法采用测量不同特征值之间的距离方法进行分类

优点:精度搞,对异常值不敏感,无数据输入假定

缺点:计算复杂度高,空间复杂度高

适用数据范围:数值型和标称型。

kNN工作原因:存在一个样本数据集合(训练样本集),每个数据都存在标签,输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般情况下,我们只选择样本数据集中前K个最相似的数据。通常K不小于20的整数。最后,选择K个最相似数据中出现次数最多的分类,作为新数据的分类。

k-近邻算法的一般流程

(1)收集数据:可以使用任何方法。

(2)准备数据:距离计算所需要的数值,最好事结构化的数据格式。

(3)分析数据:可以使用任何方法。

(4)训练算法:此步骤不适用于k-近邻算法。

(5)测试算法:计算错误率。

(6)使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。

2.1.1 准备:使用Python导入数据

from numpy import *

import operator

def createDataSet():

    group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])

    labels=['A','A','B','B']

    return group,labels

建立名为kNN.py

调用方式


>>>import kNN

>>>group,labels=kNN.createDataSet()

####### 2.1.2 实施KNN算法

伪代码

对未知类别属性的数据集中的每个点依次执行以下操作:

(1)计算已知类别数据集中的点与当前点之间的距离;

(2)按照距离递增次序排序;

(3)选取与当前点距离最小的k个点;

(4)确定前k个点所在类别的出现频率;

(5)返回前k个点出现频率最高的类别作为当前点的预测分类。

距离计算-----选择距离最小的k个点-----排序


def classify0(inX,dataSet,labels,k):

dataSetSize=dataSet.shape[0]

diffMat=tile(inX,(dataSetSize,1)) - dataSet

sqDiffMat=diffMat**2

sqDistances=sqDiffMat.sum(axis=1)

distances=sqDistances**0.5

sorteDisIndicies=distances.argsort()

classCount={}

for i in range(k):

voteIlabel=labels[sortedDistIndicies[i]]

classCount[voteIlabel]=classCount.get(voteIlabel,0)+1

sortedClassCount=sorted(classCount.iteritems()

key=operator.itemgetter(1),reverse=True)

return sortedClassCount[0][0]

相关文章

  • 思维导图

    《机器学习实战》思维导图 过完书后可以查漏补缺,温故知新。 《机器学习实战》读书笔记

  • 机器学习实战之KNN算法

    本系列教程为《机器学习实战》的读书笔记。首先,讲讲写本系列教程的原因:第一,《机器学习实战》的代码由Python2...

  • K-Means算法

    参考链接:1. python机器学习实战之K均值聚类2. 机器学习实战之K-Means算法3.《机器学习实战》(十...

  • 机器学习实战中文版 pdf高清+源代码

    机器学习实战中文版 pdf高清+源代码 《机器学习实战》介绍并实现机器学习的主流算法,面向日常任务的高效实战内容,...

  • 机器学习实战-knn

    机器学习实战笔记-knn算法实战 本文内容源于《机器学习实战》一书,主要介绍了knn(k-nearest neig...

  • 2019-03-29

    <<机器学习实战>>--策略梯度

  • 00-Scikit-learn学习笔记系列文章

    机器学习读书笔记 撰写机器学习读书笔记,总结自己系统学习sklearn的经验,将整个学习过程写成读书笔记的形式分享...

  • 支持向量机(SVM)入门理解与推导

    首先推荐:机器学习实战教程(八):支持向量机原理篇之手撕线性SVM机器学习实战教程(九):支持向量机实战篇之再撕非...

  • 机器学习实战-数据探索(变量变换、生成)

    《机器学习实战-数据探索(1、变量识别;2、单变量分析;3、双变量分析)》 机器学习实战-数据探索(缺失值处理) ...

  • 【机器学习实战】Logistic回归(一)

    【机器学习实战】Logistic回归 全部程序均是依照《机器学习实战》书写,然后进行了一些修改(顺便巩固pytho...

网友评论

    本文标题:读书笔记-《机器学习实战》

    本文链接:https://www.haomeiwen.com/subject/pkxuxftx.html