美文网首页
机器学习:K-Mean

机器学习:K-Mean

作者: moon_light_ | 来源:发表于2020-03-10 00:42 被阅读0次

K-Mean(K-均值聚类)算法是无监督学习,用于聚类,将数据集分成 K 个簇,K 值由用户给定
  
优点:容易实现
缺点:可能收敛到局部最小值,在大规模数据集上收敛较慢
  
算法
  随机初始化 k 个簇中心点
  每个中心点的每个特征值在所有样本的最大值和最小值之间随机取一个
  每个样本分到距离最近的簇
  取分到该簇的所有样本的均值做为该簇的新的中心点
  重新分配每个样本到距离最近的簇
  不断迭代直到所有样本所属的簇不再改变
  
代码

# coding=utf-8
import numpy as np


def distEclud(vecA, vecB):
    """
    计算两个向量的距离
    """
    return np.sqrt(sum(np.power(vecA - vecB, 2)))


def randCent(dataSet, k):
    """
    随机初始化簇中心点
    """
    n = np.shape(dataSet)[1]

    # 用于存储 k 个簇中心点
    centroids = np.mat(np.zeros((k, n)))

    # 为 k 个簇中心点的每一个特征赋值
    for j in range(n):
        # 随机产生一个 (k,1) 矩阵,值的范围在该特征的最大和最小值之间
        minJ = min(dataSet[:, j])
        rangeJ = float(max(dataSet[:, j]) - minJ)
        centroids[:, j] = np.mat(minJ + rangeJ * np.random.rand(k, 1))
    return centroids


def kMeans(dataSet, k, distMeas=distEclud, createCent=randCent):
    """
    dataSet - 要进行聚类的数据
    k - 要将数据分成 k 个聚类
    distMeas - 计算向量距离的函数
    createCent - 初始化 K 个簇中心点的函数
    """

    m = np.shape(dataSet)[0]

    # 存储每一个数据属于哪个簇,与簇中心点的距离是多少
    clusterAssment = np.mat(np.zeros((m, 2)))

    # 初始化 K 个簇中心点
    centroids = createCent(dataSet, k)

    # 不断的迭代,直到所有的数据分类不再改变
    clusterChanged = True
    while clusterChanged:
        clusterChanged = False

        # 遍历每一个数据
        for i in range(m):

            # 保存距离最近的簇中心点,及其距离
            minDist = np.inf
            minIndex = -1

            for j in range(k):
                # 计算该数据与不同的簇中心点的距离
                distJI = distMeas(centroids[j, :], dataSet[i, :])

                # 取距离最小的那个簇
                if distJI < minDist:
                    minDist = distJI
                    minIndex = j

            # 只要有一个数据的分类与上次迭代的结果不同,就会继续迭代所有数据
            if clusterAssment[i, 0] != minIndex:
                clusterChanged = True

            # 保存该数据所属的簇,以及与簇中心点的距离
            clusterAssment[i, :] = minIndex, minDist ** 2

        for cent in range(k):
            # 获取该簇的所有数据
            ptsInClust = dataSet[np.nonzero(clusterAssment[:, 0].A == cent)[0]]

            # 重新计算该簇的中心点,新的中心点每一个特征的值,是该簇所有数据在该特征的平均值
            centroids[cent, :] = np.mean(ptsInClust, axis=0)

    # 返回 K 个簇中心点,以及所有数据所属簇、与簇中心点的距离
    return centroids, clusterAssment




二分 K-Mean 算法
  簇心随机初始化容易导致 K-Mean 算法效果不好,容易收敛到局部最小值
  
  二分 K-Mean 算法将所有数据初始化为同一个簇,簇中心取所有样本均值,然后开始迭代
  每次迭代都对已有的簇按普通 K-Mean 一分为二
  计算新分的两个簇总的 SSE(方差和),计算剩下的簇总的方差和
  相加得到总和,取总和最小的那个簇的划分
  共 k - 1 次迭代产生 k 个簇

def biKmeans(dataSet, k, distMeas=distEclud):
    """
    二分 K-Mean 算法

    dataSet - 要进行聚类的数据
    k - 要将数据分成 k 个聚类
    distMeas - 计算向量距离的函数
    """
    m = np.shape(dataSet)[0]

    # 存储每一个数据属于哪个簇,与簇中心点的距离是多少
    clusterAssment = np.mat(np.zeros((m, 2)))

    # 初始化簇中心点,只有一个,每个特征值是所有点的平均值
    centroid0 = np.mean(dataSet, axis=0).tolist()[0]
    centList = [centroid0]

    for j in range(m):
        # 初始化所有数据距中心点距离
        clusterAssment[j, 1] = distMeas(np.mat(centroid0), dataSet[j, :]) ** 2

    # 每次迭代增加一个簇
    while len(centList) < k:
        lowestSSE = np.inf
        bestClustAss = bestCentToSplit = bestNewCents = None

        # 遍历每一个簇
        for i in range(len(centList)):
            # 取该簇的所有数据
            ptsInCurrCluster = dataSet[np.nonzero(clusterAssment[:, 0].A == i)[0], :]

            # 使用普通的 K-Mean 算法将该簇再分为两个簇
            centroidMat, splitClustAss = kMeans(ptsInCurrCluster, 2, distMeas)

            # 计算新的 2 个簇总的方差和
            sseSplit = sum(splitClustAss[:, 1])

            # 计算剩下的簇总的方差和
            sseNotSplit = sum(clusterAssment[np.nonzero(clusterAssment[:, 0].A != i)[0], 1])

            # 保存使总方差变小的划分
            if (sseSplit + sseNotSplit) < lowestSSE:
                bestCentToSplit = i
                bestNewCents = centroidMat
                bestClustAss = splitClustAss.copy()
                lowestSSE = sseSplit + sseNotSplit

        # 新划分的一部分数据赋予新的簇
        bestClustAss[np.nonzero(bestClustAss[:, 0].A == 1)[0], 0] = len(centList)

        # 另一部分数据维持原来的簇
        bestClustAss[np.nonzero(bestClustAss[:, 0].A == 0)[0], 0] = bestCentToSplit

        # 改变用于划分的簇的中心点
        centList[bestCentToSplit] = bestNewCents[0, :].tolist()[0]

        # 添加新簇的中心点
        centList.append(bestNewCents[1, :].tolist()[0])

        # 改变用于划分的数据的值
        clusterAssment[np.nonzero(clusterAssment[:, 0].A == bestCentToSplit)[0], :] = bestClustAss

    # 返回结果
    return np.mat(centList), clusterAssment



相关文章

  • 机器学习:K-Mean

    K-Mean(K-均值聚类)算法是无监督学习,用于聚类,将数据集分成 K 个簇,K 值由用户给定  优点:容易实现...

  • K-mean clustering demystified

    "K-mean clustering is relatively simple but important uns...

  • 无标题文章

    聚类方法整理 标签(空格分隔): 算法学习 聚类算法大类 1. K-Mean 2. 层次聚类算法 3. SOM聚类...

  • 机器学习概述与算法介绍(二)

    机器学习概述 机器学习基本概念 机器学习基本流程与工作环节 机器学习中的评估指标 机器学习算法一览 3. 机器学习...

  • 「零基础」python机器学习入门(一)| 什么是机器学习?

    了解什么是机器学习?为什么需要机器学习? 一、什么是机器学习? 字面上,「机器学习」可以拆分为两个词:机器、学习。...

  • Python3 机器学习简明教程

    1 机器学习介绍    1.1 什么是机器学习    1.2 机器学习的应用    1.3 机器学习基本流程与工作...

  • 什么是深度学习

    1.1 人工智能、机器学习与深度学习 人工智能 > 机器学习 > 深度学习 即,人工智能包括机器学习,机器学习包括...

  • 机器学习

    1、人工智能->机器学习->深度学习 注:->包含关系 2、机器学习领域: 模式识别=机器学习 数据挖掘=机器学习...

  • 机器学习,机器“学习”

    如果你渴望奇迹,那么机器学习对你来说是一场精神盛宴。我诚挚的邀请你一同前往。 我为什么总是要读这些人工智能、机器学...

  • 2019-02-17

    机器学习系列 机器学习100天 机器学习第1天:数据预处理 机器学习第2天:简单线性回归模型 机器学习第3天:多元...

网友评论

      本文标题:机器学习:K-Mean

      本文链接:https://www.haomeiwen.com/subject/twmvdhtx.html