美文网首页
动态调整学习率

动态调整学习率

作者: poteman | 来源:发表于2019-08-06 23:47 被阅读0次

学习率对模型的学习效果影响很大。

  • 方法一,使用优化器的decay参数
model.compile(loss = 'sparse_categorical_crossentropy', optimizer = Adam(lr = 0.001, decay=1e-6), metrics = ['accuracy'])
  • 方法二,使用learningRateSchedule
import numpy as np
from keras.callbacks import LearningRateScheduler

def step_decay_schedule(initial_lr=1e-3, decay_factor=0.75, step_size=10):
    '''
    Wrapper function to create a LearningRateScheduler with step decay schedule.
    '''
    def schedule(epoch):
        return initial_lr * (decay_factor ** np.floor(epoch/step_size))
    
    return LearningRateScheduler(schedule)

lr_sched = step_decay_schedule(initial_lr=1e-4, decay_factor=0.75, step_size=2)
model.fit(X_train, Y_train, callbacks=[lr_sched])

【参考资料】
1.step_decay_schedule.py

相关文章

  • 动态调整学习率

    学习率对模型的学习效果影响很大。 方法一,使用优化器的decay参数 方法二,使用learningRateSche...

  • keras定期调整学习率

    keras可以import两个函数定义一个函数进而实现动态调整学习率。并且fit里的callbacks中的学习率会...

  • tensorflow 学习率控制

    为什么调整学习率 学习率的调整 离散下降(discrete staircase)对于深度学习来说,每 tt 轮学习...

  • Keras使用

    参考:Keras学习率调整深度学习框架Keras使用心得 一、如何调整学习率 Keras提供两种学习率适应方法,可...

  • PyTorch常用学习率调整策略

    神经网络在进行参数优化的过程中,经常需要对学习率进行动态调整。那么PyTorch的torch.optim.lr_s...

  • Pytorch中的学习率衰减方法

    Pytorch 中的学习率调整方法 Pytorch中的学习率调整有两种方式: 直接修改optimizer中的lr参...

  • 学习率的调整

    1. cosine学习率下降

  • 2018-04-07 深度学习训练中 超参数调整 笔记

    超参数 1 学习率 初始值0.1, 如何调整学习率,准确率不再下降,就减小学习率。准确率下降太慢,就增大学习率 2...

  • 如何动态调整准确率与召回率?

    概念 对于准确率与召回率的概念,虽然有很多文章介绍了,但是很多人还是不容易形成直觉的理解。这里不谈公式,结合一个通...

  • 机器学习 | 优化——调整学习率

    写在前面: 学习率 是神经网络优化时的重要超参数。在 梯度下降方法 中,学习率的取值非常关键,如果过大就不会收敛,...

网友评论

      本文标题:动态调整学习率

      本文链接:https://www.haomeiwen.com/subject/tqagdctx.html