美文网首页
神经网络loss不收敛问题

神经网络loss不收敛问题

作者: 是个可爱的男孩子 | 来源:发表于2019-10-09 10:57 被阅读0次

这几天在训练一个网络,本来是两部分分开做的,分别调参到了最优,但是将两部分合在一起训练时,发现经过100轮后神经网络还是不收敛,于是很认真的检查了网络有没有问题,但是并没有发现什么问题,那么最大的可能就是超参数设置不合理,于是开始疯狂调参哈哈哈。


趁着还在训练,我总结一下可能导致 神经网络不收敛的原因

1、理论上就不收敛,也就是说你设计的网络本身就存在问题,这也是首先应该考虑的因素:

        1) 梯度是否存在,即反向传播有没有断裂;

2、如果确认你的网络应该没有问题,那也就是在假设理论上是收敛的

        1) 学习率设置不合理(大多数情况),学习率设置太大,会造成不收敛,如果太小,会造成收敛速度非常慢;

        2) Batchsize太大,陷入到局部最优,无法达到全局最优,故而无法继续收敛;

        3) 网络容量,浅层网络完成复杂的任务loss不下降是肯定的,网络设计太简单,一般情况下,网络的层数和节点数量越大,拟合能力就越强,如果层数和节点不够多,无法拟合复杂的情况,也会造成不收敛。


        大概也许可能,这应该是绝大部分神经网络不收敛的原因了吧,还有什么可能的原因,希望大家能够在下方留言,共同学习。

相关文章

  • 神经网络loss不收敛问题

    这几天在训练一个网络,本来是两部分分开做的,分别调参到了最优,但是将两部分合在一起训练时,发现经过100轮后神经网...

  • 吴恩达深度学习-神经网络基础(浅层神经网络)

    第三周 浅层神经网络: 3.1 神经网络概览3.2 神经网络表示 loss function L(a,y)...

  • TensorFlow之炼丹记

    这篇文章主要是把训练网络过程中遇到的一些问题,给记录下来,以防以后遇到。持续更新中... 网络不收敛,即loss不...

  • 2018-06-15

    loss终于开始在下降,最后一个stage的loss降到了20左右,下周放完假应该可以收敛的差不多吧…… 然后写了...

  • 2019-08-18

    MIMO-OFDM-IM的训练loss在0.03附近震荡不收敛,考虑可能是学习率的问题。尝试指数衰减的学习率进行训...

  • softmax regression(数字识别)

    一:简单实现神经网络步骤: 1、定义算法公式,神经网络forward时的计算 2、定义loss,选定优化器,并指定...

  • 深度学习里常用的几种损失函数小结

    softmax_loss:分类问题常用,可多分类sigmoid_loss:Contrastive_Loss 参考:...

  • TensorFlow学习02-AutoEncoder和MLP

    自编码器和多层感知机 整个神经网络的流程: 定义算法公式,也就是神经网络的forward时的计算定义loss,选定...

  • 常见深度学习问题一

    最近在做文本聚类和小样本图像分割,跑代码时,碰到了一些问题。总结如下: 1、loss 不收敛 将学习率改为指数衰减...

  • 卷积神经网络的反向传播

    1.DNN的反向传播 首先回顾深度神经网络(DNN)的反向传播 forward: Loss Function: b...

网友评论

      本文标题:神经网络loss不收敛问题

      本文链接:https://www.haomeiwen.com/subject/nyvwpctx.html