這是「透過梯度組合豐富分層學習資訊的多樣性」使用Darknet框架的實現。
我們的論文將發表在 2019 年 ICCV 低功耗電腦視覺研討會上。
安裝Darknet框架可以參考darknet(pjreddie)或darknet(AlexeyAB)。
我們提供YOLO-v3-tiny-PRN cfg檔案和COCO預訓練模式。您可以使用提供的文件在 COCO 測試開發集上獲得以下結果:
模型 | 地圖@0.5 | BFLOP | # 範圍 | GPU 幀率 | CPU幀率 |
---|---|---|---|---|---|
YOLO-v3-微小 [1] | 33.1 | 5.571 | 8.86M | 300 | 8 |
YOLO-v3-tiny-PRN | 33.1 | 3.467 | 4.95M | 370 | 13 |
我們也為現代骨幹網 EfficientNet_b0 [2] 提供 cfg 檔案和 COCO 預訓練模型。為了訓練這個模型,你應該安裝 darknet(AlexeyAB)。
模型 | 尺寸 | 地圖@0.5 | BFLOP |
---|---|---|---|
EfficientNet_b0-PRN | 416x416 | 45.5 | 3.730 |
EfficientNet_b0-PRN | 320x320 | 41.0 | 2.208 |
這裡我們提供了一些在COCO測試開發集上的實驗結果,這些結果並沒有在論文中列出。
模型 | 尺寸 | 地圖@0.5 | BFLOP | # 範圍 |
---|---|---|---|---|
皮利 [3] | 304x304 | 38.3 | 2.58 | 5.98M |
皮利-PRN | 320x320 | 40.9 | 2.39 | 3.16M |
Pelee-YOLOv3 [1] | 320x320 | 41.4 | 2.99 | 3.91M |
皮利-FPN [4] | 320x320 | 41.4 | 2.86 | 3.75M |
皮利-PRN-3l | 320x320 | 42.5 | 3.98 | 3.36M |
mPee-PRN | 320x320 | 42.7 | 2.82 | 3.81M |
模型 | 尺寸 | 地圖@0.5 | BFLOP | # 範圍 | GPU 幀率 | CPU幀率 |
---|---|---|---|---|---|---|
皮利-PRN | 416x416 | 45.0 | 4.04 | 3.16M | 111 | 6.0 |
Pelee-YOLOv3 [1] | 416x416 | 45.3 | 5.06 | 3.91M | 115 | 5.5 |
皮利-FPN [4] | 416x416 | 45.7 | 4.84 | 3.75M | 115 | 5.8 |
皮利-PRN-3l | 416x416 | 46.3 | 5.03 | 3.36M | ||
mPee-PRN | 416x416 | 46.8 | 4.76 | 3.81M | 104 |
[1] 雷德蒙,J.,&法哈迪,A.(2018)。 Yolov3:漸進式改善。 arXiv 預印本 arXiv:1804.02767。
[2] Tan, M., & Le, QV (2019)。 EfficientNet:重新思考卷積神經網路的模型擴展。 arXiv 預印本 arXiv:1905.11946。
[3] 王RJ、李X、凌CX (2018)。 Pelee:行動裝置上的即時物體偵測系統。神經資訊處理系統的進展(第 1963-1972 頁)。
[4] Lin, TY、Dollár, P.、Girshick, R.、He, K.、Hariharan, B. 與 Belongie, S. (2017)。用於目標偵測的特徵金字塔網路。 IEEE 電腦視覺與模式辨識會議論文集(第 2117-2125 頁)。
https://github.com/AlexeyAB/darknet