RFNext
g2l_breakfast_searched_dilation_config
CNN 的通用感受野搜索方法。如果您的网络具有内核大于 1 的 Conv,RF-Next 可以进一步改进您的模型。正式实施:
TPAMI2022 论文:《RF-Next:卷积神经网络的高效感受野搜索》
CVPR2021 论文:“Global2Local:视频动作分割的高效结构搜索”
模型的时间/空间感受野在顺序/空间任务中发挥着重要作用。大的感受野有利于长期关系,而小的感受野有助于捕捉局部细节。现有方法使用手工设计的分层感受野构建模型。我们能否有效地搜索感受野组合来取代手工设计的模式?为了回答这个问题,我们建议通过全局到局部的搜索方案找到更好的感受野组合。我们的搜索方案利用全局搜索来查找粗略组合,并利用局部搜索来进一步获得细化的感受野组合。全局搜索发现除人类设计的模式之外的可能的粗略组合。在全局搜索之上,我们提出了一种期望引导的迭代局部搜索方案来有效地细化组合。我们的 RF-Next 模型将感受野搜索插入到各种模型中,提高了许多任务的性能,例如时间动作分割、对象检测、实例分割和语音合成。
RF-Next 支持许多应用。
如果您发现这项工作或代码对您的研究有帮助,请引用:
@article{gao2022rfnext,
title={RF-Next: Efficient Receptive Field Search for Convolutional Neural Networks},
author={Gao, Shanghua and Li, Zhong-Yu and Han, Qi and Cheng, Ming-Ming and Wang, Liang},
journal=TPAMI,
year={2022} }
@inproceedings{gao2021global2local,
title={Global2Local: Efficient Structure Search for Video Action Segmentation},
author={Gao, Shang-Hua and Han, Qi and Li, Zhong-Yu and Peng, Pai and Wang, Liang and Cheng, Ming-Ming},
booktitle=CVPR,
year={2021}
}
源代码免费,仅供研究和教育使用。任何商业用途均应首先获得正式许可。
如果您有任何疑问,请随时发送电子邮件至高尚华 ( shgao(at)live.com
)