git clone https://github.com/subhc/unsup-parts.git
cd unsup-parts
conda env create --file environment.yml
conda activate unsup-parts
wget https://www.robots.ox.ac.uk/~vgg/research/unsup-parts/files/checkpoints.tar.gz
tar zxvf checkpoints.tar.gz
이 프로젝트는 시각화를 위해 가중치 및 바이어스를 사용합니다. train.py
에서 wandb_userid
사용자 이름으로 업데이트하십시오.
data
라는 디렉토리를 작성하고 언급 된 위치에서 타르를 추출하십시오. data
└── CUB # extract CUB_200_2011.tgz, cub_supervisedlabels.tar.gz here
├── CUB_200_2011 # extract cachedir.tar.gz and segmentations.tgz here
│ ├── attributes
│ ├── cachedir
│ ├── images
│ ├── parts
│ └── segmentations
└── supervisedlabels
예
mkdir -p data/CUB/
cd data/CUB/
tar zxvf CUB_200_2011.tgz
tar zxvf cub_supervised_labels.tar.gz
cd CUB_200_2011
tar zxvf segmentations.tgz
tar zxvf cachedir.tar.gz
data
라는 디렉토리를 만듭니다.segmentation
폴더를 추출하십시오. data
└── DeepFashion
└── In-shop Clothes Retrieval Benchmark # extract deepfashion_supervisedlabels.tar.gz here
├── Anno
│ └── segmentation # extract img_highres_seg.zip here
│ └── img_highres
│ ├── MEN
│ └── WOMEN
└── supervisedlabels
└── img_highres
├── MEN
└── WOMEN
예
mkdir -p data/DeepFashion/In-shop Clothes Retrieval Benchmark/Anno/
cd data/DeepFashion/In-shop Clothes Retrieval Benchmark/
wget https://www.robots.ox.ac.uk/~vgg/research/unsup-parts/files/deepfashion_supervisedlabels.tar.gz
tar zxvf deepfashion_supervisedlabels.tar.gz
cd Anno
# get the segmentation folder from the google drive link
cd segmentation
unzip img_highres_seg.zip
새끼 훈련 :
python train.py dataset_name=CUB
Deepfashion을 훈련시키기 위해 :
python train.py dataset_name=DF
평가 폴더에서 평가 코드를 찾을 수 있습니다.
설명 | 크기 | 링크 |
---|---|---|
Cub-200-2011 (PTH) | 181MB | 여기 |
Deepfashion (PTH) | 181MB | 여기 |
둘 다 (tar.gz) | 351MB | 여기 |
pth
파일을 checkpoints/CUB
및 checkpoints/DeepFashion
폴더로 각각 이동하십시오.
자기 감독 된 시각적 표현 학습의 목표는 대상이나 장면 수준에 중점을 둔 대부분의 연구와 함께 강력하고 양도 가능한 이미지 표현을 배우는 것입니다. 반면에, 부분 수준에서의 표현 학습은 거의 관심을 받았다. 이 논문에서는 객체 부분 발견 및 세분화에 대한 감독되지 않은 접근법을 제안하고 세 가지 기여를합니다. 먼저, 우리는 모델이 이미지의 의미있는 분해를 부분적으로 배울 수 있도록 장려하는 일련의 목표를 통해 프록시 작업을 구성합니다. 둘째, 사전 작업은 사전 컴퓨팅 된 기능을 부품의 프록시로 재구성하거나 클러스터링하는 것을 주장합니다. 우리는 이것만으로도 의미있는 부분을 찾을 수 없다는 것을 경험적으로 보여줍니다. 주로 해상도가 낮고 분류 네트워크가 정보를 공간적으로 번식시키는 경향이 있기 때문입니다. 우리는 픽셀 수준에서 이미지 재구성 이이 문제를 완화시켜 보완 큐 역할을 할 수 있다고 제안합니다. 마지막으로, 우리는 키패 포인트 회귀 분석을 기반으로 한 표준 평가가 세분화 품질과 잘 어울리지 않으므로 객체의 분해를 부분으로 더 잘 특성화하는 다른 메트릭 인 NMI 및 ARI를 도입 함을 보여줍니다. 우리의 방법은 세밀한 벤치 마크 데이터 세트에서 미세 입자이지만 시각적으로 뚜렷한 범주에 걸쳐 일관된 의미 적 부분을 생성합니다. 코드는 프로젝트 페이지에서 사용할 수 있습니다.
@inproceedings{choudhury21unsupervised,
author = {Subhabrata Choudhury and Iro Laina and Christian Rupprecht and Andrea Vedaldi},
booktitle = {Proceedings of Advances in Neural Information Processing Systems (NeurIPS)},
title = {Unsupervised Part Discovery from Contrastive Reconstruction},
year = {2021}
}
코드는 주로 스코프를 기반으로합니다.