美文网首页机器学习与数据挖掘机器学习
统计学习方法笔记之统计学习基础

统计学习方法笔记之统计学习基础

作者: Aengus_Sun | 来源:发表于2019-07-25 21:00 被阅读11次

更多文章可以访问我的博客Aengus | Blog

损失函数

(1)0-1损失函数
L(Y, f(X)) = \left\{ \begin{align}1, Y \neq f(X) \\ 0, Y = f(X) \end{align} \right.
(2)平方损失函数
L(Y, f(X)) = (Y - f(X))^2
(3)绝对损失函数
L(Y,f(X)) = |Y - f(X)|
(4)对数损失函数
L(Y, f(X)) = - \log P(Y|X)

经验风险与结构风险

经验风险(empirical risk):
R_{emp}(f) = \frac{1}{N}\sum^N_{i=1}L(y_i, f(x_i))
结构风险(structural risk):
R_{sum}(f) = \frac{1}{N}\sum^N_{i=1}L(y_i, f(x_i)) + \lambda J(f)
其中J(f)为模型的复杂度,模型越复杂则J(f)越大,复杂度表示了对复杂模型的惩罚度;\lambda \geq 0是系数,用以权衡经验风险和模型复杂度。结构风险小的模型往往对训练数据以及未知的测试数据都有较好的预测。

正则化与交叉验证

正则化和交叉验证都是模型选择方法。

正则化

正则化是结构风险最小化的策略实现,是在经验风险上加一个正则化项或者叫做罚项,正则化一般具有以下形式:
\min_{f \in F} \frac{1}{N}\sum^N_{i=1}L(y_i, f(x_i)) + \lambda J(f)
第一项为经验风险,第二项为正则化项,\lambda是调整两者之间的系数。模型越复杂,正则化值就越大。

交叉验证

交叉验证的思想是重复地使用数据。将数据进行划分,将划分后的数据集组合为测试集和训练集,在此基础上反复的进行训练、测试和模型选择。

(1)简单交叉验证:随机将数据集划分为训练集和测试集,然后在不同的条件下反复训练测试,进行模型选择;

(2)S折交叉验证:应用较多。随机将数据分为S个互不相见、大小相同的子集,利用S-1个进行训练,余下的子集测试,将这一过程对可能的S种选择重复进行,最后选择平均测试误差最小的模型;

(3)留一交叉验证S折交叉验证中的特殊情形:S=NN为给定数据集的容量;

泛化能力

泛化能力指将模型应用到全新数据集的预测能力。

泛化误差:如果模型为\hat{f},那么用这个模型对未知数据预测的误差即为泛化误差:
R_{exp}(\hat{f}) = E_P[L(Y, \hat{f}(X))] = \int_{X \times Y}L(y, \hat{f}(x))P(x, y)dxdy
定理. 泛化误差上界

对于二分类问题,当假设空间是有限个函数的集合F=\{ f_1, f_2, \dots, f_d \}时,对任意一个函数f \in F,至少以概率1 - \delta,以下不等式成立:
R(f) \leq \widehat{R}(f) + \varepsilon(d, N, \delta)
其中,
\varepsilon(d, N, \delta)=\sqrt{\frac{1}{2N} \log d + \log \frac{1}{\delta})}

正态分布的极大似然估计与贝叶斯估计

(1)数据x_1,x_2, \dots, x_n来自正态分布N(\mu, \sigma^2)\sigma^2已知,求\mu的极大似然估计。

正态分布:
(\mu, \sigma^2) = \frac{1}{\sqrt{2 \pi}\sigma }\exp(-\frac{(x - \mu)^2}{2 \sigma^2})
其似然函数为:
L(\mu, \sigma^2) = \prod^N_{i=1}\frac{1}{\sqrt{2 \pi}\sigma }\exp(-\frac{(x_i - \mu)^2}{2 \sigma^2})
取对数:
\ln L(\mu, \sigma^2) = - \frac{N}{2} \ln 2\pi - \frac{N}{2} \ln \sigma^2 - \frac{1}{2 \sigma^2} \sum^N_{i = 1}(x_i - \mu)^2
\mu求导并令其等于0:
\frac{\partial \ln L(\mu, \sigma^2)}{\partial \mu} = \frac{1}{\sigma^2} \sum^N_{i=1}(x_i - \mu) = 0
求得\mu^* = \frac{1}{n}\sum^N_{i=1}x_i

(2)假设\mu的先验概率是正态分布N(0, \tau^2),根据样本x_1,x_2, \dots, x_n写出\mu的贝叶斯估计。
\begin{align} P(\mu|x_1, \dots, x_n) & = \frac{P(\mu, x_1, \dots, x_n)}{P(x_1, x_2, \dots, x_n)} \\ & =\frac{P(\mu)P(x_1|\mu)P(x_2|\mu)\dots P(x_n|\mu)}{\int P(\mu,x_1, \dots, x_n)d\mu} \\ & \propto \exp(- \frac{\mu^2}{2 \tau^2})\prod^N_{i=1}\exp(-\frac{(x_i-\mu)^2}{2 \sigma^2}) = L(\mu) \end{align}

\ln L(\mu) = -\frac{\mu^2}{2\tau^2} - \frac{\sum^N_{i=1}(x_i - \mu)^2}{2\sigma^2}


\frac{\partial \ln L(\mu)}{\partial \mu} = -\frac{\mu}{\tau^2} + \frac{\sum^N_{i=1}(x_i - \mu)}{\sigma^2} = 0

\hat{\mu} = \frac{\sum^N_{i=1}x_i}{N-\frac{\sigma^2}{\tau^2}}

参考

李航《统计学习方法》(第二版)第一章

相关文章

  • 统计学习方法笔记之统计学习基础

    更多文章可以访问我的博客Aengus | Blog 损失函数 (1)0-1损失函数(2)平方损失函数(3)绝对损失...

  • 从程序员的角度说统计学习方法概论

    应该说这是在看完《统计学习方法》这本书后有的想法,也算是读书笔记。《统计学习方法》是李航写的,重点偏向于基于统计的...

  • 统计学习方法

    1.统计学习笔记 久闻李航老师的这本统计学习方法的大名,苦于数学基础停留在本科期末考试70分的水平,战战兢兢,最近...

  • 统计学习方法笔记(第四章个人笔记)

    统计学习方法笔记(第四章个人笔记) 标签: 统计学习方法 朴素贝叶斯法 描述:朴素贝叶斯法是基于贝叶斯定理与特征条...

  • 统计机器学习基本概念

    -------- 李航《统计学习方法》 笔记 1. 统计学习三要素模型 策略 算法 1.1 模型 监督学习过程中,...

  • 统计学习方法笔记(第二章个人笔记)

    统计学习方法笔记(第二章个人笔记) 标签: 机器学习深度学习 感知机(P25) 感知机是神经网络与支持向量机的基础...

  • 2018-08-12

    统计学习方法笔记(一) 1.1实现统计学习方法的步骤 1.得到一个有限的训练数据集。 2.确定包含所有可能的模型的...

  • 李航-第1章统计学习方法概论

    统计学习方法的三要素:模型、策略和算法。即:统计学习方法 = 模型 + 策略 +算法 基本概念 监督学习统计学习包...

  • 统计学习笔记(一)

    最近开始看李航老师的统计学习方法,在这里做点笔记 统计学习基本概念 定义:是关于计算机基于数据构建概率统计模型并运...

  • 2018-11-25 统计学习方法-李航 第一章

    第一章 统计学习方法概论 1.1 统计学习 实现统计学习方法的步骤如下: 1)得到一个有限的训练数据集合 2)确定...

网友评论

    本文标题:统计学习方法笔记之统计学习基础

    本文链接:https://www.haomeiwen.com/subject/pgbkrctx.html