美文网首页
李宏毅ML01-Introduction

李宏毅ML01-Introduction

作者: 阿叶 | 来源:发表于2019-07-19 20:05 被阅读0次

视频地址:ML Lecture 0-1: Introduction of Machine Learning
无干扰条件下,机器学习已经在各个方面超越人类,但面对干扰,机器还是很容易犯错。
机器学习能力约等于找到一个函数的能力。

机器学习的框架

机器学习的用途

  • 回归
    找到回归方程(预测PM2.5)
  • 分类
    二元分类(垃圾邮件过滤)和多分类(图片识别)
  • 生成
    创造图片or文字

机器学习的分类

  • 监督式学习
    使用打标签的数据集进行训练
  • 半监督式学习
    同时使用标签和未标签的数据集进行训练
  • 迁移学习
    对任务不相关数据的处理
  • 增强学习
    从评价中学习,比如下一盘棋,不输入棋谱,只看结果。赢了是好结果,输了是坏结果,如此重复。
  • 非监督式学习
    比如让机器从大量阅读材料中学习词语的意思


    机器学习的步骤

机器学习的下一步

  1. 机器能不能知道“我不知道”
    比如在图像识别中,输入一个和训练集无关的图片,机器能不能知道这张图我不认识,还是说会强行把它套入算法中进行识别。
  2. 说出为什么“我知道”
    机器的识别依据也许和人类不同。比如在一个训练识别马的实验中,某种机器学习模型更多的是依据图片左下角的来源label,因为所有训练集图片都是来自于同一个图库。
  3. 机器的“错觉”
    熊猫的图片加上噪点之后可能被识别为长臂猿,这种情况发生在自动驾驶中可能是致命的,如何防止这样的“错觉”发生。
  4. 终身学习
    人类可以不断学习新的技能,但机器一般对应每种任务都需要一个模型。如果使用同一个模型学习不同的任务,那么会导致之前的学习失效。


    如果使用同一个模型学习
  5. 学习如何学习(元学习)
    机器是否能够编写出能够进行学习的程序?
  6. 一定需要很多训练资料吗?
    以图片识别为例,机器能不能在没有看过一种动物之前,根据文字描述识别出这种动物。
  7. 能不能缩短增强式学习的时间?
    alpha star玩了200多年的时间才能战胜人类,如何缩短这个时间。
  8. 神经网络压缩
    比如通过剪枝把大的神经网络缩小,比如把参数二元化。
  9. 如果训练资料和测试资料很不一样
    比如手写数字识别中,如果训练集是黑白的,将测试集换成彩色的,识别正确率将会从99.5%降低到57.5%

相关文章

  • 李宏毅ML01-Introduction

    视频地址:ML Lecture 0-1: Introduction of Machine Learning无干扰条...

  • 《李宏毅 - 深度学习》笔记

    学习资源 视频:李宏毅深度学习完整版 别人的中文笔记:李宏毅机器学习笔记(LeeML-Notes)李宏毅机器学习笔...

  • 线性回归(1)

    感谢李宏毅《回归-案例研究》 部分内容为听取李宏毅老师讲座的笔记,也融入了自己对机器学习理解,个人推荐李宏毅老师的...

  • 2020机器学习正向传播和反向传播

    感谢李宏毅老师的机器学习,部分内容参考了李宏毅老师的讲义 今天我们来说一说正向传播和反向传播,这里感谢李宏毅老师讲...

  • 深度学习资料收集

    视频学习资源 1. 李宏毅b站资源:【李宏毅 深度学习19(完整版)国语】机器学习 深度学习下面这两个一样:【李宏...

  • 李宏毅老师机器学习课程笔记_ML Lecture 3-1: Gr

    引言: 这个系列的笔记是台大李宏毅老师机器学习的课程笔记视频链接(bilibili):李宏毅机器学习(2017)另...

  • 一天搞懂深度学习

    分享李宏毅教授关于深度学习PPT,非常容易入门。 ”《1天搞懂深度学习》,300多页的ppt,台湾李宏毅教授写的,...

  • [李宏毅机器学习]系列文章

    介绍 本系列文章为台湾大学李宏毅老师机器学习课程的个人学习笔记。 参考资料 datawhale-李宏毅机器学习笔记...

  • 无标题文章

    李宏毅,鹿晗,张艺兴,哎呦~

  • 李宏毅——Attention

    其他重要公式 三种alignment function计算方法: 参考文献 https://www.bilibil...

网友评论

      本文标题:李宏毅ML01-Introduction

      本文链接:https://www.haomeiwen.com/subject/xeahlctx.html