美文网首页
图片分类算法调优技巧

图片分类算法调优技巧

作者: 残剑天下论 | 来源:发表于2020-05-15 17:46 被阅读0次

说到图片分类算法的调优技巧,不得不提亚马逊团队的一篇文章Bag of Tricks for Image Classification with Convolutional Neural Networks

下面的Table1展示了一系列Tricks被用在ResNet50网络做分类任务获得的结果。


可以看到使用本文的技巧,Top1准确率从75.3%提升到了79.29%。所以这一系列技巧还是非常给力的,接下来我们就一起来探索探索。

一、Baseline

既然涉及到调参,那么第一步就得有一个BaseLine的结果作为参考,这一BaseLine并非直接截取之前对应的论文的结果,而是作者基于GluonCV复现的。关于复现的细节作者在论文2.1节中说的很清楚,包括数据预处理的方式和顺序,网络层的初始化方法,迭代次数,学习率变化策略等等。

下面的Table2展示了作者复现的ResNet-50,Inception-V3,MobileNet三个BaseLine。


二、训练调参经验

介绍完BaseLine,接下来就来看看作者的优化方法。论文从加快模型训练,网络结构优化以及训练参数调优三个部分分别介绍如何提升模型的效果。

1、模型训练加速

关于模型训练加速,论文提到了2点,

  • 使用更大的Batch Size
  • 使用低精度(如FP16)进行训练(也是我们常说的混合精度训练)。

关于使用更大的Batch Size进行训练加速,作者指出一般只增加Batch Size的话,效果不会太理想,例如FaceBook这篇大名鼎鼎的论文有证明:Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour

然后本文总结了几个重要要的调参方案,如下:

  • 增大学习率
    因为更大的Batch Size意味着每个Batch数据计算得到的梯度更加贴近整个数据集,从数学上来说就是方差更小,因此当更新方向更加准确之后,迈的步子也可以更大,一般来说Batch Size变成原始几倍,学习率就增加几倍。

  • Warm up
    Warm up指的是用一个小的学习率先训练几个epoch,这是因为网络的参数是随机初始化的,假如一开始就采用较大的学习率容易出现数值不稳定,这也是为什么要使用Warm up。然后等到训练过程基本上稳定了就可以使用原始的初始学习率进行训练了。作者在使用Warm up的过程中使用线性增加的策略。举个例子假如Warm up阶段的初始学习率是0,warmup阶段共需要训练m个batch的数据(论文实现中m个batch共5个epoch),假设训练阶段的初始学习率是L,那么在第i个batch的学习率就设置为 i x L / m

  • 每一个残差块后的最后一个BN层的\gamma参数初始化为0
    我们知道BN层的\gamma \beta参数是用来对标注化后的数据做线性变换的,公式表示为y=\gamma x + \beta ,其中我们一般会把\beta设为1,而这篇论文提出将其初始化为0,则更容易训练。

  • 不对Bias参数做权重惩罚,但对权重要是要做惩罚

接下来作者提到了使用低精度(16-Bit浮点型)来做训练加速,也即是我们常说的混合精度训练。但不是所有的NVIDIA GPU都支持FP16,我大概只知道V100和2080 Ti是支持混合精度训练的。

作者将上面的Tricks结合在一起进行训练,下面的Table3展示了使用更大的Batch Size和16位浮点型进行训练的结果,可以看到这俩Tricks相比于BaseLine训练速度提升了许多,并且精度也更好了。

而下面的Table4则进一步展示了这些Tricks的消融实验,证明确实是有效的。

2、网络结构调优

这一小节以ResNet-50为例子展开,下面的Figure1表示ResNet网络的原始结构图,简单来说就是一个输入流加4个stage和一个输出流。其中输入流和每个stage的详细结构在Figure1中间那一列显示,而残差结构则在Figure1中最右边进行显示。

论文在网络结构部分进行改进获得的3种结构如Figure2(a),(b),(c)所示:


  • ResNet-B
    改进部分就是将stage中做downsample的residual block的downsample操作从第一个1x1卷积层换成第二个3x3卷积层,如果downsample操作放在stride为2的1x1卷积层,那么就会丢失较多特征信息(默认是缩减为1/4),可以理解为有3/4的特征点都没有参与计算,而将downsample操作放在33卷积层则能够减少这种损失,因为即便stride设置为2,但是卷积核尺寸够大,因此可以覆盖特征图上几乎所有的位置。

  • ResNet-C
    改进部分就是将Figure1中input stem部分的7x7卷积层用3个3x3卷积层替换。这部分借鉴了Inception v2的思想,主要的考虑是计算量,毕竟大尺寸卷积核带来的计算量要比小尺寸卷积核多不少,不过读者如果仔细计算下会发现ResNet-C中3个3x3卷积层的计算量并不比原来的少,这也是Table5中ResNet-C的FLOPs反而增加的原因。

  • ResNet-D
    改进部分是将stage部分做downsample的residual block的支路从stride为2的1x1卷积层换成stride为1的卷积层,并在前面添加一个池化层用来做downsample。这部分我个人理解是虽然池化层也会丢失信息,但至少是经过选择(比如这里是均值操作)后再丢失冗余信息,相比stride设置为2的1*1卷积层要好一些。

最终关于这些改进的网络结构的效果如Table5所示,可以看到效果提升还是有的。


3、模型训练调优

  • 学习率衰减策略采用cosine函数,这部分的实验结果对比可以参考Figure3,其中(a)是cosine decay和step decay的示意图,step decay是目前比较常用的学习率衰减方式,表示训练到指定epoch时才衰减学习率。(b)是2种学习率衰减策略在效果上的对比。


  • 使用标签平滑(label smooth)
    这部分是把原始的one-hot类型标签做软化,这样可以在计算损失时一定程度的减小过拟合。从交叉熵损失函数可以看出,只有真实标签对应的类别概率才会对损失值计算有所帮助,因此标签平滑相当于减少真实标签的类别概率在计算损失值时的权重,同时增加其他类别的预测概率在最终损失函数中的权重。这样真实类别概率和其他类别的概率均值之间的gap(倍数)就会下降一些,Lable Smooth实际的公式如下:

代码实现可以简单表示为:

new_labels = (1.0 - label_smoothing) * one_hot_labels + label_smoothing / num_classes

完整的Pytorch代码如下:

import torch
import torch.nn as nn

class LabelSmoothing(nn.Module):
    """
    NLL loss with label smoothing.
    """
    def __init__(self, smoothing=0.0):
        """
        Constructor for the LabelSmoothing module.
        :param smoothing: label smoothing factor
        """
        super(LabelSmoothing, self).__init__()
        self.confidence = 1.0 - smoothing
        self.smoothing = smoothing

    def forward(self, x, target):
        logprobs = torch.nn.functional.log_softmax(x, dim=-1)

        nll_loss = -logprobs.gather(dim=-1, index=target.unsqueeze(1))
        nll_loss = nll_loss.squeeze(1)
        smooth_loss = -logprobs.mean(dim=-1)
        loss = self.confidence * nll_loss + self.smoothing * smooth_loss
        return loss.mean()

具体细节和公式可以再阅读原文,这里展示一下Lable Smooth的效果,下图展示了真实类别概率和其他类别的概率均值之间的gap的理想情况以及使用了Label Smooth后的情况。

总结就一句话,one-hot编码会自驱的向正类和负类的差值扩大的方向学习(过度的信任标签为1的为正类),在训练数据不足的情况容易过拟合,所以使用Label Smooth来软化一下,使得没那么容易过拟合。

  • 知识蒸馏(knowledge distillation)
    知识蒸馏时模型压缩领域的一个重要分支,即采用一个效果更好的teacher model训练student model,使得student model在模型结构不改变的情况下提升效果。这篇论文使用ResNet-152作为teacher model,用ResNet-50作student model。代码实现细节上,通过在ResNet网络后添加一个蒸馏损失函数实现,这个损失函数用来评价teacher model输出和student model输出的差异,因此整体的损失函数原损失函数和蒸馏损失函数的结合,如公式(6)所示:


其中p表示真实标签,z表示student model的全连接层输出,r表示teacher model的全连接层输出,T是超参数,用来平滑softmax函数的输出。

  • 引入mixup
    mixup其实也是一种数据增强方式,假如采用mixup训练方式,那么每次读取2张输入图像,假设用(xi,yi)和(xj,yj)表示,那么通过下面这两个式子就可以合成得到一张新的图像(x,y),然后用这张新图像进行训练,需要注意的是采用这种方式训练模型时要训更多epoch。式子中的λ是一个超参数,用来调节合成的比重,取值范围是[0,1]。


最终,在使用了这4个Tricks后的消融实验结果如Table6所示。

三、检测、分割任务上的作用

当把上面的Tricks迁移到目标检测和语义分割任务同样是有效的,实验结果如Table8和Table9所示。


相关文章

  • Mongodb简单优化

    MongoDB WiredTiger引擎调优技巧 调优Cache Size WiredTiger最重要的调优参数就...

  • tomcat调优

    Tomcat 调优技巧:1、Tomcat自身调优:①采用动静分离节约Tomcat的性能;②调整Tomcat的线程池...

  • Spark性能调优

    调优之前是将功能实现...然后算法优化,设计优化,再是spark调优!,需得一步一步来,不得直接越过,直接调优! ...

  • iOS 知识收集

    性能优化 iOS 保持界面流畅的技巧 UIKit性能调优实战讲解 iOS高效设置视图圆角 使用 ASDK 性能调优...

  • iOS应用性能调优的25个建议和技巧

    iOS应用性能调优的25个建议和技巧

  • 算法调优记录

    1.双线性插值 2.平方插值 3.分段函数插值法 针对上述对应关系,n=6,8,10时,k,a组合方针效果最好说明...

  • JVM调优

    1 调优层次 性能调优包含多个层次,比如:架构调优、代码调优、JVM调优、数据库调优、操作系统调优等。架构调优和代...

  • app 性能优化

    UIKit性能调优实战讲解内存恶鬼drawRect关于性能的一些问题iOS应用性能调优的25个建议和技巧Colle...

  • JVM 性能调优之预估调优与问题排查

    JVM 调优分类 调优是一个很大的概念,简单说就是把系统进行优化,但是站在一个系统的角度,能够干的事情太多了,我们...

  • Twitter 工程师谈 JVM 调优

    一. 调优需要关注的几个方面 内存调优 CPU 使用调优 锁竞争调优 I/O 调优 二. Twitter 最大的敌...

网友评论

      本文标题:图片分类算法调优技巧

      本文链接:https://www.haomeiwen.com/subject/pmkrohtx.html