美文网首页
吴恩达机器学习—无监督学习

吴恩达机器学习—无监督学习

作者: 魏清宇 | 来源:发表于2019-01-21 16:08 被阅读0次

无监督学习

数据集是不带标签的,要找到一下隐含在数据中的机构

无监督的聚类算法

算法首先生成两个聚类中心,第一步进行簇分类,然后遍历数据集,计算每个点到聚类中心的距离,然后将点和最近的聚类中心分为一类;第二部内循环就是重新划分聚类,将两个聚类中心移动到同类点的平均位置,然后在进行簇分类,计算每个节点到新的聚类中为的距离然后进行分类,再次更新聚类中心的位置,这样不断迭代下去,知道聚类中心不会再改变,成为聚类中心收敛。

K-mean算法的输入 K-means算法流程 K-meas用于分类不佳的数据

即使是分类不佳的数据,算法也能较好的将数据分类,然后根据不同组内数据的特点进行市场划分。

K-means算法的优化目标

K-means算法也存在优化目标,损失函数,了解算法的优化目标可以帮助我们进行算法的debug,更好的调试目标,也可以再进行优化,寻找簇的时候找到最优解,避免局部最优。

算法的优化函数

最小化损失函数也称为算法的失真代价函数。通过优化代价函数,可以找到合适的类中心。

随机初始化

如何初始化聚类中心

初始化聚类中心

聚类算法可能会得到局部最优,如下图所示,将本应归为一类的点分离开:

局部最优

为了跳出这种局部最优,我们通常进行多次随机初始化,多次重复选择聚类中心。尽力实现较好的局部最优或全局最优。以下是实际做法:

多次聚类

如上所示,可以重复进行一百次聚类算法,然后找到使损失函数最小的聚类结果。通常在目标类数目较少的情况下,多次初始化效果较好,如果类数据过多,则多次随机初始化不太奏效。

聚类数量的选择

通常进行聚类数量选择的方法还是通过观察图或者聚类算法的输出,还没有自动选择的方法。有一个肘部法则(Elbow method)

elbow method

通过画出损失函数和聚类数量的图像,可以选择拐点对应的数量作为聚类数量。但是,有时也会遇到有图的情况,拐地不明确。还可以通过聚类目的进行局类数目的选择,如下图:

根据使用目的进行聚类数目的选择

进行聚类是为了实现多种目的,如市场分割等,因此,我们可以根据目的进行聚类数的选择,如在进行T-shirt尺码的设计时,我们可能需要三种尺码的T-shirt,或者是五种,然后就确定了聚类的数量。

相关文章

  • 《吴恩达 - 机器学习》笔记

    学习资源 b站:机器学习(Machine Learning)- 吴恩达(Andrew Ng)网易:吴恩达《机器学习...

  • 吴恩达机器学习 - 无监督学习

    无监督学习就是聚类问题:1、 聚类算法K-means2、如何选取初始值3、如何选择划分类别的数量K K-means...

  • 吴恩达机器学习—无监督学习

    无监督学习 数据集是不带标签的,要找到一下隐含在数据中的机构 算法首先生成两个聚类中心,第一步进行簇分类,然后遍历...

  • 吴恩达机器学习——无监督学习

    1. k-means的步骤: 先随机选择K个簇中心, 1)划分样本:每个样本分配到距离最近的簇。 2)更新簇中心...

  • 机器学习笔记

    学习记录,从小白做起。 传统给机器学习 先来镇楼的,吴恩达机器学习:吴恩达机器学习 OCTAVE版本下载:http...

  • 学习笔记-机器学习-(10)聚类

    吴恩达-机器学习课程--13:Clustering 的学习总结: 最常见的非监督算法:K-means算法 假如想把...

  • 吴恩达机器学习课程

    吴恩达机器学习课程

  • 机器学习相关资料整理

    初学机器学习,将部分资料整理在此,逐渐完善。 视频资源 吴恩达机器学习 介绍:吴恩达老师关于机器学习的入门级视频...

  • 吴恩达deep_learning_week2_logistic回

    吴恩达deep_learning_week2_logistic回归 标签: 机器学习深度学习 这是吴恩达深度学习里...

  • 监督学习

    最近看吴恩达的机器学习视频,记录一下监督学习的个人理解 一、监督学习 监督学习有个显著的特征,就是你的数据需要人工...

网友评论

      本文标题:吴恩达机器学习—无监督学习

      本文链接:https://www.haomeiwen.com/subject/apfxjqtx.html