git clone https://github.com/subhc/unsup-parts.git
cd unsup-parts
conda env create --file environment.yml
conda activate unsup-parts
wget https://www.robots.ox.ac.uk/~vgg/research/unsup-parts/files/checkpoints.tar.gz
tar zxvf checkpoints.tar.gz
该项目使用权重和偏见进行可视化,请在train.py
中更新wandb_userid
data
,并在上述位置提取TAR。 data
└── CUB # extract CUB_200_2011.tgz, cub_supervisedlabels.tar.gz here
├── CUB_200_2011 # extract cachedir.tar.gz and segmentations.tgz here
│ ├── attributes
│ ├── cachedir
│ ├── images
│ ├── parts
│ └── segmentations
└── supervisedlabels
例子
mkdir -p data/CUB/
cd data/CUB/
tar zxvf CUB_200_2011.tgz
tar zxvf cub_supervised_labels.tar.gz
cd CUB_200_2011
tar zxvf segmentations.tgz
tar zxvf cachedir.tar.gz
data
。segmentation
文件夹中。 data
└── DeepFashion
└── In-shop Clothes Retrieval Benchmark # extract deepfashion_supervisedlabels.tar.gz here
├── Anno
│ └── segmentation # extract img_highres_seg.zip here
│ └── img_highres
│ ├── MEN
│ └── WOMEN
└── supervisedlabels
└── img_highres
├── MEN
└── WOMEN
例子
mkdir -p data/DeepFashion/In-shop Clothes Retrieval Benchmark/Anno/
cd data/DeepFashion/In-shop Clothes Retrieval Benchmark/
wget https://www.robots.ox.ac.uk/~vgg/research/unsup-parts/files/deepfashion_supervisedlabels.tar.gz
tar zxvf deepfashion_supervisedlabels.tar.gz
cd Anno
# get the segmentation folder from the google drive link
cd segmentation
unzip img_highres_seg.zip
训练幼崽:
python train.py dataset_name=CUB
训练深层时尚:
python train.py dataset_name=DF
您可以在评估文件夹中找到评估代码。
描述 | 尺寸 | 关联 |
---|---|---|
CUB-200-2011(PTH) | 181MB | 这里 |
DeepFashion(PTH) | 181MB | 这里 |
两者(tar.gz) | 351MB | 这里 |
请分别在checkpoints/CUB
和checkpoints/DeepFashion
文件夹中移动pth
文件。
自我监督的视觉表示学习的目标是学习强大的,可转移的图像表示,大多数研究都集中在对象或场景层面上。另一方面,部分级别的表示学习的关注明显较少。在本文中,我们提出了一种无监督的方法来反对零件发现和细分,并做出三个贡献。首先,我们通过一组目标来构建代理任务,这些目标鼓励模型将图像的有意义分解为其部分。其次,先前的工作主张重建或聚类预先计算的特征作为零件的代理。我们从经验上表明,仅此一个就不太可能找到有意义的部分。主要是因为它们的分辨率低以及分类网络在空间上涂抹信息的趋势。我们建议,像素级别的图像重建可以减轻此问题,充当互补提示。最后,我们表明,基于关键点回归的标准评估与分割质量不太相关,因此引入了不同的指标NMI和ARI,可以更好地表征对象分解为各个部分。我们的方法产生的语义部分是在细粒度但视觉上不同的类别中保持一致的,在三个基准数据集上表现出色的状态。代码可在项目页面上找到。
@inproceedings{choudhury21unsupervised,
author = {Subhabrata Choudhury and Iro Laina and Christian Rupprecht and Andrea Vedaldi},
booktitle = {Proceedings of Advances in Neural Information Processing Systems (NeurIPS)},
title = {Unsupervised Part Discovery from Contrastive Reconstruction},
year = {2021}
}
代码主要基于SCOPS。