美文网首页
机器学习面试题-神经网络损失函数为何非凸

机器学习面试题-神经网络损失函数为何非凸

作者: bd7e4a65be2b | 来源:发表于2020-05-18 23:28 被阅读0次

关注微信公众号“”机器学习算法面试“获取更多机器学习和深度学习方面的面试题

这个问题可以使用反证法来证明,假设我们有一个最简答的神经网络,也就是一个输入层、隐藏层、输出层。也就是说给定n个组样本(x_i,y_i) ,我们网络的经验损失函数可以写成如下的形式:
L_n(a,W)=\frac{1}{n}\sum_{i=1}^n l(y_i,a^T\sigma(W^T x_i) )
其中,a,W是我们要优化的权重,W代表输入层到隐层的权重, a代表隐层到输出层的权重。这里我们取L_2损失函数和ReLU作为我们的激活函数。即上式中(用max 代表对向量每一个元素取max),则有如下:
l({y_i},{a^T}\sigma ({W^T}{x_i})): = ({y_i},{a^T}\sigma ({W^T}{x_i}))
其中\sigma(.)可以取max、relu等激活函数。注意到虽然像取平方,ReLU激活函数、求内积这些“函数”单独来看都是凸的,但他们这么一复合之后就不一定是凸的了。一些常见的判断凸函数的方法请见上这里。

为了方便说明L_n这个函数是非凸的,需要一个经典引理:一个高维凸函数可以等价于无数个一维凸函数的叠加。一个(高维)函数是凸的,当且仅当把这个函数限制到任意直线上它在定义域上仍然是凸的。这是凸分析里很基本的一个定理,不熟悉的同学不妨尝试用定义来证明它。

反过来也就是说,只要我们找到一点(x,y) \in \mathbb{R}^n\times \mathbb{R} ,和一个“方向” v ,使得这个g函数非凸就可以了! 回顾一维凸函数的定义,这就是说在这个方向上找到两个点,他们平均的函数值比他们平均值上的函数值要低就行了。

为了说明L_n非凸,我们通过画图来验证,这里我们取真实的 a^*=[2;3], W^*=[-8;3] 。然后均匀随机地生成 100个 x_i(二维的[0,1]均匀随机向量),y_i 就用 y_i = (a^*)^T\sigma((W^*)^T x_i)+\epsilon_i生成, \epsilon_i 是[0,0.5]的均匀随机数(这样图像看起来会比较规整)。我们固定住 a_2^*,W_1^* ,画出采样出来的 L_n[a_1,W_2] 上的图像.

如上红线,我们可以很轻松的找到一条使g “非凸”的线,因此证明完毕: L_n 是非凸的。

相关文章

  • 机器学习面试题-神经网络损失函数为何非凸

    关注微信公众号“”百面机器学习“获取更多机器学习和深度学习方面的面试题 这个问题可以使用反证法来证明,假设我们有一...

  • 看最新进展深入了解深度学习(第一部分)

    摘要:在本文中,通过讲解非凸性优化深入了解深度学习,表达对神经网络的高维损失函数和SGD的解释说明的更多感知,同时...

  • 机器学习中常见函数

    1、激活函数 常用于神经网络,激活函数增加了神经网络模型的非线性特征 2、损失函数 机器学习过程中中,我们期望样本...

  • 损失函数

    聊聊机器学习中的损失函数 机器学习中的损失函数 平方损失(线性回归) 对数损失(交叉熵损失 softmax, lo...

  • 机器学习常用损失函数以及各种排序算法,python实现

    1. 机器学习常用损失函数 评价模型预测值和真实值的函数为损失函数(loss function)。它是一个非负实值...

  • 机器学习常见面试问题及答案汇总

    一些常见的机器学习面试题(不定时更新)。 激活函数的作用?激活函数为神经网络提供了非线性。如果不使用激活函数,每一...

  • 损失函数总结

    1.损失函数: 损失函数可以直观的刻画分类的错误率,但是因为其非凸,非光滑的特点,使得算法很难对其进行直接优化 2...

  • Chapter4_神经网络的学习

    神经网络的学习 学习:从训练数据中自动获取最优权重参数的过程 指标:损失函数 目的:以损失函数为基准,找到能使损失...

  • 凸优化,梯度下降和优化算法进阶

    1. 凸优化 优化方法目标:训练集损失函数值深度学习目标:测试集损失函数值(泛化性) 1.1 优化在深度学习中的挑...

  • 深度学习入门-mini-batch学习

    神经网络的学习所用指标是损失函数。两种常用的损失函数: 均方误差: y是神经网络输出,t是监督数据 交叉熵误差: ...

网友评论

      本文标题:机器学习面试题-神经网络损失函数为何非凸

      本文链接:https://www.haomeiwen.com/subject/llvmohtx.html