谷歌提出基于神經(jīng)網(wǎng)絡(luò)搜索的目標(biāo)檢測新型架構(gòu),同時適應(yīng)圖像識別
所有備選架構(gòu)的計算量都幾乎相同,因為在這一過程中僅僅輪換了特征模塊的順序。最終學(xué)習(xí)到的尺度輪換模型在目標(biāo)檢測任務(wù)中比ResNet-50-FPN高了2.9%的AP。如果添加搜索選項來適應(yīng)模塊的尺度和種類(包括殘差模塊或者瓶頸模塊)還能夠減少10%的浮點運算提升效率。下圖顯示了標(biāo)準(zhǔn)尺寸和mobile尺寸的SpingNet性能。
研究人員將得到的49層尺度輪換主干架構(gòu)命名為SpineNet-49,如果利用重復(fù)模塊疊加和維度拓展可以方便地構(gòu)建出SpineNet-96/143/190等架構(gòu)。
下圖展示了RestNet-50-FPN和SpineNet-49的對比情況。
ResNet 主干 (左) 和 基于NAS搜索得到的SpineNet 主干 (右) 的比較。
二、性能
通過與ResNet-FPN的比較展示了新架構(gòu)在性能上的大幅度提升。在使用相同模塊的情況下,SpineNet比ResNet-FPN提升了3%的AP,同時還減少了10-20%的浮點計算。值得一提的是最大的SpineNet-190模型在COCO實現(xiàn)了52.1%的AP,在沒有使用多尺度測試的情況下單模型結(jié)果超過了先前的檢測器架構(gòu)。SpineNet同時在分類任務(wù)基準(zhǔn)iNaturalist細(xì)粒度數(shù)據(jù)集上取得了5%的top-1精度提升。
SpineNet模型和ResNet-FPN模型在bbox檢測上的性能比較。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字