RFNext
g2l_breakfast_searched_dilation_config
CNN 的通用感受野搜尋方法。如果您的網路具有核心大於 1 的 Conv,RF-Next 可以進一步改進您的模型。正式實施:
TPAMI2022 論文:《RF-Next:卷積神經網路的高效感受野搜尋》
CVPR2021 論文:“Global2Local:視頻動作分割的高效結構搜尋”
模型的時間/空間感受野在順序/空間任務中扮演重要角色。大的感受野有利於長期關係,而小的感受野有助於捕捉局部細節。現有方法使用手工設計的分層感受野來建構模型。我們能否有效搜尋感受野組合來取代手工設計的模式?為了回答這個問題,我們建議透過全域到局部的搜尋方案找到更好的感受野組合。我們的搜尋方案利用全域搜尋來尋找粗略組合,並利用局部搜尋來進一步獲得細化的感受野組合。全局搜尋發現除人類設計的模式之外的可能的粗略組合。在全域搜尋之上,我們提出了一種期望引導的迭代局部搜尋方案來有效地細化組合。我們的 RF-Next 模型將感受野搜尋插入各種模型中,提高了許多任務的效能,例如時間動作分割、物件偵測、實例分割和語音合成。
RF-Next 支援許多應用。
如果您發現這項工作或程式碼對您的研究有幫助,請引用:
@article{gao2022rfnext,
title={RF-Next: Efficient Receptive Field Search for Convolutional Neural Networks},
author={Gao, Shanghua and Li, Zhong-Yu and Han, Qi and Cheng, Ming-Ming and Wang, Liang},
journal=TPAMI,
year={2022} }
@inproceedings{gao2021global2local,
title={Global2Local: Efficient Structure Search for Video Action Segmentation},
author={Gao, Shang-Hua and Han, Qi and Li, Zhong-Yu and Peng, Pai and Wang, Liang and Cheng, Ming-Ming},
booktitle=CVPR,
year={2021}
}
原始碼免費,僅供研究和教育使用。任何商業用途應先獲得正式許可。
如果您有任何疑問,請隨時發送電子郵件至高尚華 ( shgao(at)live.com
)