【CNN结构设计】无痛的涨点技巧:ACNet

论文链接://arxiv.org/pdf/1908.03930.pdf

1. 前言

不知道你是否发现了,CNN 的结构创新在这两年已经变得相对很少了,同时要做出有影响力并且 Solid 的工作也变得越来越难,最近 CNN 结构方面的创新主要包含两个方面:

  • 网络结构搜索,以 Google Brain 的 EfficientNet 为代表作。
  • 获取更好的特征表达,主要是将特征复用,特征细化做得更加极致,以 HRNet,Res2Net 等为代表作。

本文要介绍的是 ICCV 2019 的一个新 CNN 架构 ACNet(全称为 Asymmetric Convolution Net),但是可能很多同学没有实测或者对里面要表达的核心思想并没有捕捉,因此这篇文章的目的是讲清楚 ACNet 的原理并总结它的核心思想,另外再提供一个即插即用的 Pytorch 代码段。

2. 介绍

ACNet 的切入点为获取更好的特征表达,但和其它方法最大的区别在于它没有带来额外的超参数,而且在推理阶段没有增加计算量,这是十分具有吸引力的。

在正式介绍 ACNet 之前,首先来明确一下关于卷积计算的一个等式,这个等式表达的意思就是对于输入特征图I,先进行 K(1)和 I 卷积,K(2)和 I 卷积后再对结果进行相加,与先进行 K(1)和 K(2)的逐点相加后再和 I 进行卷积得到的结果是一致的。这也是 ACNet 在推理阶段不增加任何计算量的理论基础。

重要等式

3. ACNet 原理

下面的 Figure1 展示了 ACNet 的思想:

ACNet的整体结构

宏观上来看ACNet 分为训练和推理阶段,训练阶段重点在于强化特征提取,实现效果提升。而测试阶段重点在于卷积核融合,不增强任何计算量

  • 训练阶段:因为3\times 3卷积是大多数网络的基础组件,因此 ACNet 的实验都是针对3\times 3卷积进行的。训练阶段就是将现有网络中的每一个3\times 3卷积换成3\times 1卷积 +1\times 3卷积 +3\times 3卷积共三个卷积层,最终将这三个卷积层的计算结果进行融合获得卷积层的输出。因为这个过程中引入的1\times 3卷积和3\times 1卷积是非对称的,所以将其命名为 Asymmetric Convolution。
  • 推理阶段:如 Figure1 右图所示,这部分主要是对三个卷积核进行融合。这部分在实现过程中就是使用融合后的卷积核参数来初始化现有的网络,因此在推理阶段,网络结构和原始网络是完全一样的了,只不过网络参数采用了特征提取能力更强的参数即融合后的卷积核参数,因此在推理阶段不会增加计算量。

总结一下就是 ACNet 在训练阶段强化了原始网络的特征提取能力,在推理阶段融合卷积核达到不增加计算量的目的。虽然训练时间增加了一些时间,但却换来了对推理无痛的精度提升,怎么看都是一笔非常划算的交易。下面的 Table3 展示出来,对于 AlexNet 提升了比较多,而对 ResNet 和 DenseNet 提升不到一个百分点,不过考虑到这个提升是白赚的也还是非常值得肯定的。

Table3

4. 为什么 ACNet 能涨点?

为什么 ACNet 这个看起来十分简单的操作能为各种网络带来涨点?论文中提到,ACNet 有一个特点是它提升了模型对图像翻转和旋转的鲁棒性,例如训练好后的1\times 3卷积和在图像翻转后仍然能提取正确的特征(如 Figure4 左图所示,2 个红色矩形框就是图像翻转前后的特征提取操作,在输入图像的相同位置处提取出来的特征还是一样的)。那么假设训练阶段只用3\times 3卷积核,当图像上下翻转之后,如 Figure4 右图所示,提取出来的特征显然是不一样的。

因此,引入1\times 3这样的水平卷积核可以提升模型对图像上下翻转的鲁棒性,竖直方向的3\times 1卷积核同理。

Figure4

下面的 Table4 则继续从实验角度解释了这种鲁棒性:

从实验上解释这种鲁棒性

5. 推理阶段的卷积核融合

推理阶段的融合操作如 Figure3 所示,在论文中提到具体的融合操作是和 BN 层一起的,然后融合操作时发生在 BN 之后的。但是其实也可以把融合操作放在 BN 层之前,也就是三个卷积层计算完之后就开始融合。论文对这两种融合方式进行了实验,在上面的 Table4 中 BN in branch 这一列有 √的话表示融合是在 BN 之后,可以看到这种方式使得效果确实会更好一些。

推理阶段的卷积层融合

6. Pytorch 代码实现

我们来看一下作者的 ACNet 基础结构 Pytorch 实现,即将原始的3\times 3卷积变成3\times 3+3\times 1+1\times 3

# 去掉因为3x3卷积的padding多出来的行或者列
class CropLayer(nn.Module):

    #   E.g., (-1, 0) means this layer should crop the first and last rows of the feature map. And (0, -1) crops the first and last columns
    def __init__(self, crop_set):
        super(CropLayer, self).__init__()
        self.rows_to_crop = - crop_set[0]
        self.cols_to_crop = - crop_set[1]
        assert self.rows_to_crop >= 0
        assert self.cols_to_crop >= 0

    def forward(self, input):
        return input[:, :, self.rows_to_crop:-self.rows_to_crop, self.cols_to_crop:-self.cols_to_crop]

# 论文提出的3x3+1x3+3x1
class ACBlock(nn.Module):

    def __init__(self, in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, padding_mode='zeros', deploy=False):
        super(ACBlock, self).__init__()
        self.deploy = deploy
        if deploy:
            self.fused_conv = nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=(kernel_size,kernel_size), stride=stride,
                                      padding=padding, dilation=dilation, groups=groups, bias=True, padding_mode=padding_mode)
        else:
            self.square_conv = nn.Conv2d(in_channels=in_channels, out_channels=out_channels,
                                         kernel_size=(kernel_size, kernel_size), stride=stride,
                                         padding=padding, dilation=dilation, groups=groups, bias=False,
                                         padding_mode=padding_mode)
            self.square_bn = nn.BatchNorm2d(num_features=out_channels)

            center_offset_from_origin_border = padding - kernel_size // 2
            ver_pad_or_crop = (center_offset_from_origin_border + 1, center_offset_from_origin_border)
            hor_pad_or_crop = (center_offset_from_origin_border, center_offset_from_origin_border + 1)
            if center_offset_from_origin_border >= 0:
                self.ver_conv_crop_layer = nn.Identity()
                ver_conv_padding = ver_pad_or_crop
                self.hor_conv_crop_layer = nn.Identity()
                hor_conv_padding = hor_pad_or_crop
            else:
                self.ver_conv_crop_layer = CropLayer(crop_set=ver_pad_or_crop)
                ver_conv_padding = (0, 0)
                self.hor_conv_crop_layer = CropLayer(crop_set=hor_pad_or_crop)
                hor_conv_padding = (0, 0)
            self.ver_conv = nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=(3, 1),
                                      stride=stride,
                                      padding=ver_conv_padding, dilation=dilation, groups=groups, bias=False,
                                      padding_mode=padding_mode)

            self.hor_conv = nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=(1, 3),
                                      stride=stride,
                                      padding=hor_conv_padding, dilation=dilation, groups=groups, bias=False,
                                      padding_mode=padding_mode)
            self.ver_bn = nn.BatchNorm2d(num_features=out_channels)
            self.hor_bn = nn.BatchNorm2d(num_features=out_channels)


    # forward函数
    def forward(self, input):
        if self.deploy:
            return self.fused_conv(input)
        else:
            square_outputs = self.square_conv(input)
            square_outputs = self.square_bn(square_outputs)
            # print(square_outputs.size())
            # return square_outputs
            vertical_outputs = self.ver_conv_crop_layer(input)
            vertical_outputs = self.ver_conv(vertical_outputs)
            vertical_outputs = self.ver_bn(vertical_outputs)
            # print(vertical_outputs.size())
            horizontal_outputs = self.hor_conv_crop_layer(input)
            horizontal_outputs = self.hor_conv(horizontal_outputs)
            horizontal_outputs = self.hor_bn(horizontal_outputs)
            # print(horizontal_outputs.size())
            return square_outputs + vertical_outputs + horizontal_outputs

然后在推理阶段进行卷积核融合的代码实现地址为://github.com/DingXiaoH/ACNet/blob/master/acnet/acnet_fusion.py,对照 Figure3 就比较好理解了,介于篇幅这里就不贴这段代码了。

7. 思考

从实验结果中可以看到,在推理阶段即使融合操作放在 BN 层之前,相比原始网络仍有一定提升(AlexNet 的 56.18% vs 55.92%,ResNet-18 的 70.82% vs 70.36%),作者没有讲解这部分的原理,我比较同意魏凯峰大佬的观点,如下:

这部分的原因个人理解是来自梯度差异化,原来只有一个3\times 3卷积层,梯度可以看出一份,而添加了1 \times 33\times 1卷积层后,部分位置的梯度变为 2 份和 3 份,也是更加细化了。而且理论上可以融合无数个卷积层不断逼近现有网络的效果极限,融合方式不限于相加(训练和推理阶段一致即可),融合的卷积层也不限于1 \times 33\times 1尺寸。

个人将 ACNet 的结构用在一个业务数据中并取得了 2% 的精度提升,这一方法确实是非常有用并且也是推理无痛的,建议大家可以在自己的数据上进行尝试。

8. 总结

本文简要讲述了 ACNet 这个无痛的调参方法,这种方法创新点是非常棒的,我们不一定需要重型 BackBone 去提取特征,也不一定需要复杂的结构复用特征,像 ACNet 这样的优雅并且有效的作品确实让人眼前一亮。


欢迎关注 GiantPandaCV, 在这里你将看到独家的深度学习分享,坚持原创,每天分享我们学习到的新鲜知识。( • ̀ ω•́ )✧

有对文章相关的问题,或者想要加入交流群,欢迎添加 BBuf 微信:

二维码