MobileNet系列之MobileNet_v2

 MobileNet系列之MobileNet_v1

Inception系列之Inception_v1

Inception系列之Batch Normalization

Inception系列之Inception_v2-v3

Inception系列之Inception_v4

導言:

    MobileNet_v2提出了一些MobileNet_v1存在的一些問題,並在此基礎上提出了改進方案。其主要貢獻為提出了線性瓶頸(Linear Bottlenecks)和倒殘差(Inverted Residuals)。

    關注公眾號CV技術指南,及時獲取更多計算機視覺技術總結文章。

 

01Linear Bottlenecks

    如上圖所示,MobileNet_v2提出ReLU會破壞在低維空間的數據,而高維空間影響比較少。因此,在低維空間使用Linear activation代替ReLU。如下圖所示,經過實驗表明,在低維空間使用linear layer是相當有用的,因為它能避免非線性破壞太多信息。

    此外,如果輸出是流形的非零空間,則使用ReLU相當於是做了線性變換,將無法實現空間映射,因此MobileNet_v2使用ReLU6實現非零空間的非線性激活。

    上方提出使用ReLU會破壞信息,這裡提出ReLU6實現非零空間的非線性激活。看起來有些難以理解。這裡提出我自己的理解。

    根據流形學習的觀點,認為我們所觀察到的數據實際上是由一個低維流形映射到高維空間的。由於數據內部特徵的限制,一些高維中的數據會產生維度上的冗餘,實際上這些數據只要比較低的維度的維度就能唯一的表示。

    

圖像分佈是在高維空間,神經網絡中使用非線性激活函數實現將高維空間映射回低維流形空間。而這裡提出使用ReLU6即增加了神經網絡對非零空間的映射,否則,在非零空間使用ReLU相當於線性變換,無法映射迴流形低維空間。而前文提出的使用線性激活函數來代替ReLU是在已經映射後的流形低維空間。

    區別就是ReLU6是在將高維空間映射到流形低維空間時使用,Linear layer是在映射後的流形低維空間中使用。

    其使用的如下表所示

 

02 Inverted Residuals

    MobileNet_v1中的結構如下左圖,MobileNet_v2如下右圖。、

    MobileNet_v2是在2018年發表的,此時ResNet已經出來了,經過幾年的廣泛使用表明,shortcut connection和Bottlenck residual block是相當有用的。MobileNet_v2中加入了這兩個結構。

    但不同的是,ResNet中的bottleneck residual是沙漏形的,即在經過1×1卷積層時降維,而MobileNet_v2中是紡錘形的,在1×1卷積層是升維。這是因為MobileNet使用了Depth wise,參數量已經極少,如果使用降維,泛化能力將不足。

    此外,在MobileNet_v2中沒有使用池化來降維,而是使用了步長為2的卷積來實現降維,此外如上圖所示,步長為2的block沒有使用shortcut connection。

這裡的t是膨脹因子,取6。

 

    Inverted residuals block 與ResNet中的residuals block對比如下圖所示:

圖來源於網絡

    ResNet中residual block是兩端大,中間小。而MobileNet_v2是中間大,兩端小,剛好相反,作者把它取名為Inverted residual block。

 

    整體結構如下圖所示:

 

    論文里提到Bottleneck有19層,但其給出的結構圖中卻只有17層。

    MobileNet_v2相比與MobileNet_v1,參數量有所增加,主要增加在於Depth wise前使用1×1升維。此外,在CPU上的推理速度也比後者慢,但精度更高。

 

本文來源於公眾號 CV技術指南 的模型解讀系列。

歡迎關注公眾號 CV技術指南 ,專註於計算機視覺的技術總結、最新技術跟蹤、經典論文解讀。

 在公眾號中回復關鍵字 「技術總結」 可獲取以下文章的匯總pdf。

其它文章

北京大學施柏鑫:從審稿人視角,談談怎麼寫一篇CVPR論文

Siamese network總結

計算機視覺專業術語總結(一)構建計算機視覺的知識體系

欠擬合與過擬合技術總結

歸一化方法總結

論文創新的常見思路總結

CV方向的高效閱讀英文文獻方法總結

計算機視覺中的小樣本學習綜述   

知識蒸餾的簡要概述   

優化OpenCV視頻的讀取速度

NMS總結   

損失函數技術總結

注意力機制技術總結   

特徵金字塔技術總結   

池化技術總結

數據增強方法總結   

CNN結構演變總結(一)經典模型

CNN結構演變總結(二)輕量化模型 

CNN結構演變總結(三)設計原則

如何看待計算機視覺未來的走向   

CNN可視化技術總結(一)-特徵圖可視化

CNN可視化技術總結(二)-卷積核可視化

CNN可視化技術總結(三)-類可視化

CNN可視化技術總結(四)-可視化工具與項目