3 MobileNetv2回归网络
MobileNetv 2 回归网络是一种轻量化卷积神经网络,虽然网络的目前深度学习性能非常好,VGG 19、RESNET 153等能够在图像分类领域取得很高的分类率,但是其参数太多( VGG 19的参数达到几十万之多,其模型将近1GB),导致移植不便且对运算性能要求较高。关于轻量化卷积神经网络的研究一直在开展,MobileNetv 2是2018年提出的新型轻量化卷积神经网络,其核心思想是用深度可分卷积和倒残差块进行速度提升。
3.1 深度可分卷积
深度可分卷积[12-13]可以把标准卷积分解成一个深度卷积神经网络和一个逐点卷积神经网络,即分离卷积核,每个特征通道只与对应的filter进行卷积,之后再由逐点卷积进行合并。相对于标准卷积,深度可分卷积减少了计算所需参数,而且与普通卷积操作相比较,深度可分卷积将必须同时考虑的通道和区域分离,变为先考虑区域再考虑通道。
深度卷积分离卷积核只考虑通道问题,深度卷积计算量为。
逐点卷积又称为1×1卷积,一般用于特征维度的提升或下降。逐点卷积只考虑区域问题,将进行深度卷积后的特征进行合并,输出特征大小为DH DW N ,有1×1×M大小的卷积核,逐点卷积的计算量为DH DW MN。
将深度卷积的计算量与逐点卷积的计算量相加,可以得到深度可分卷积的计算量为。
将深度可分卷积的计算量与标准卷积的计算量相比,可以推得
式中,卷积核采用3×3,则一般有=3×3=9,卷积核个数,约为1/9,即计算时间减少为原来的1/9~1/8。
3.2 倒残差块
MobileNetv 2 回归网络先对输入图像进行升维、深度分解卷积、再降维操作,这个过程被称为倒残差。MobileNetv 2回归网络对深度分解卷积进行改进,在深度分解卷积之前添加一个1×1卷积,保证卷积过程在高维度下进行。为了不破坏特征,去掉第二个1×1卷积后的激活函数,这种做法称为线性瓶颈,可以减少激活函数在低维卷积中对特征的破坏。
3.3 MobileNetv 2回归网络结构
MobileNetv 2 回归网络结构参数如表 1所示。其中,卷积层是标准卷积,倒残差层是由倒残差块组成的卷积层,MobileNetv 2的平均池化层只有一个,位于网络的最后,通道扩张系数是倒残差块中通道升维的倍数。该网络共19层,中间各层用于提取特征,最后一层用于回归。
表1 MobileNetv 2 回归网络参数
Tab.1 MobileNetv 2 regression network parameters