美文网首页
K-近邻法

K-近邻法

作者: strealingFire | 来源:发表于2018-04-21 21:07 被阅读0次

简单地说,k近邻算法采用测量不同特征值之间的距离方法进行分类。

from numpy import *

import operator

def classify0(inX,dataSet,labels,k):

    dataSetSize = dataSet.shape[0]

    diffMat = tile(inX,(dataSetSize,1))-dataSet

    sqDiffMat = diffMat**2

    sqDistances = sqDiffMat.sum(axis =1)

    distances = sqDistances**0.5

    sortedDistIndicies = distances.argsort()

    classCount = {}

    for i in range(k):

        voteIlabel = labels[sortedDistIndicies[i]]

        classCount[voteIlabel] = classCount.get(voteIlabel,0) +1

        sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)

        return sortedClassCount[0][0]

classify0([1,1],group,labels,3)


def file2matrix(filename):

    fr = open(filename)

    array0lines = fr.readlines()

    number0fLines = len(array0lines)

    #得到文件行数

    returnMat = zeros((number0fLines,3))  #创建返回的Numpy矩阵

    classLabelVector = []

    index= 0

    #解析文件数据到列表

    for line in array0lines:

        line = line.strip()

        listFromLine = line.split('\t')

        returnMat[index,:] = listFromLine[0:3]

        classLabelVector.append(int(listFromLine[-1]))

        index+=1

    return returnMat,classLabelVector

datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')


def autoNorm(dataSet):

    minVals = dataSet.min(0) #这个最小的那个是行和列的交叉坐标

    maxVals = dataSet.max(0)

    ranges = maxVals - minVals

    normDataSet = zeros(shape(dataSet)) #表示按照某种结构建立一个所有值为0的二维数组

    m = dataSet.shape[0]

    normDataSet = dataSet - tile(minVals,(m,1))

    normDataSet = normDataSet/tile(ranges,(m,1))

    return normDataSet,ranges,minVals


normMat ,ranges,minVals = autoNorm(datingDataMat)


def datingClassTest():

    hoRatio = 0.10

    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')

    normMat,ranges,minVals =autoNorm(datingDataMat)

    m = normMat.shape[0]

    numTestVecs = int(m*hoRatio)

    errorCount = 0.0

    for i in range(numTestVecs):

        classifierResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)

        print ("the classifier came back with: %d,the real answer is : %d",(classifierResult,datingLabels[i]))

        if(classifierResult != datingLabels[i]): errorCount +=1.0

    print ("the total error rate is:",(errorCount/float(numTestVecs)))


def classifyPerson():

    resultList = ['not at all','in small doses','in large doses']

    percentTats = float(input("percentage of time spent playing video games?"))

    ffMiles = float(input("frequent flier miles earned per year ?"))

    iceCream = float(input("liters of ice cream consumed per year?"))

    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')

    normMat,ranges,minVals = autoNorm(datingDataMat)

    inArr = array([ffMiles,percentTats,iceCream])

    classifierResult = classify0((inArr-minVals)/ranges,normMat,datingLabels,3)

    print("You will probably like this person:",resultList[classifierResult])

相关文章

  • 模式识别——6 其他分类方法

    6.1 近邻法 6.1.1 最近邻法 6.1.2 K-近邻法 6.1.3 近邻法的快速算法 6.1.4剪辑近邻法 ...

  • 机器学习笔记-k近邻算法

    K-近邻算法概述(KNN) k近邻法1968年由Cover和Hart提出。k-近邻算法采用测量不同特征值之间的距离...

  • 数据科学(机器学习:k-近邻算法)

    k-近邻法简介 k近邻法(k-nearest neighbor, k-NN)是1967年由Cover T和Hart...

  • k-近邻算法

    k-近邻法简介 k近邻法(k-nearest neighbor, k-NN)是1967年年由Cover T和Har...

  • 算法图解 (十)

    第十章 k最近邻算法 最近邻居法 在模式识别领域中, 最近邻居法(KNN 算法, 又译 K-近邻算法) 是一种用于...

  • K-近邻法

    简单地说,k近邻算法采用测量不同特征值之间的距离方法进行分类。 from numpy import * impor...

  • 机器学习实战-01-K-近邻算法

    1、k-近邻算法介绍 k近邻法(k-nearest neighbor, k-NN)是1967年由Cover T和H...

  • 机器学习实战之K-近邻算法(二)

    机器学习实战之K-近邻算法(二) 2-1 K-近邻算法概述 简单的说,K-近邻算法采用测量不同特征值之间的距离方法...

  • K近邻

    一、模型 1.1概念 k-近邻算法是一种基本分类与回归方法,我们这里只讨论分类问题中的 k-近邻算法。k-近邻算法...

  • K-近邻算法学习及实现

    K-近邻算法学习及实现 K-近邻原理 K-近邻算法采用测量不同特征值之见的距离方法进行分类。 将新数据与已知数据集...

网友评论

      本文标题:K-近邻法

      本文链接:https://www.haomeiwen.com/subject/lduflftx.html