STAR pytorch
1.0.0
紙の実装「星:リアルタイムの画像強化のための構造対応の軽量変圧器」(ICCV 2021)。
CVF(PDF)
Adobe-MIT FiveK DatasetのStarを使用した低光の強化のPytorch実装。 Star-DCEディレクトリで見つけることができます。ここでは、CNNバックボーンをStarに置き換えるだけで、ゼロDCE(Paper | Code)のピプロラインを採用します。ゼロDCEでは、各画像について、ネットワークは曲線のグループを回帰し、ソース画像に繰り返し適用されます。詳細については、元のRepo Zero-dceで詳細をご覧ください。
使用したAdobe-MIT 5Kデータセットのダウンロードリンクを提供します(トレーニング|テスト)。公正な比較のために、Deepupeによって分割されたテストセットを採用していることに注意してください。
オリジナルのStar-DCEモデルをトレーニングするには、
cd STAR-DCE
python train_dce.py
--lowlight_images_path "dir-to-your-training-set"
--parallel True
--snapshots_folder snapshots/STAR-ori
--lr 0.001
--num_epochs 100
--lr_type cos
--train_batch_size 32
--model STAR-DCE-Ori
--snapshot_iter 10
--num_workers 32
ベースラインCNNベースのdce-net(w or w oプーリング)をトレーニングするには、
cd STAR-DCE
python train_dce.py
--lowlight_images_path "dir-to-your-training-set"
--parallel True
--snapshots_folder snapshots/DCE
--lr 0.001
--num_epochs 100
--lr_type cos
--train_batch_size 32
--model DCE-Net
--snapshot_iter 10
--num_workers 32
または
cd STAR-DCE
python train_dce.py
--lowlight_images_path "dir-to-your-training-set"
--parallel True
--snapshots_folder snapshots/DCE-Pool
--lr 0.001
--num_epochs 100
--lr_type cos
--train_batch_size 32
--model DCE-Net-Pool
--snapshot_iter 10
--num_workers 32
トレーニングしたStar-DCEモデルを評価するには、
cd STAR-DCE
python test_dce.py
--lowlight_images_path "dir-to-your-test-set"
--parallel True
--snapshots_folder snapshots_test/STAR-DCE
--val_batch_size 1
--pretrain_dir snapshots/STAR-ori/Epoch_best.pth
--model STAR-DCE-Ori
トレーニングしたDCE-NETモデルを評価するには、
cd STAR-DCE
python test_dce.py
--lowlight_images_path "dir-to-your-test-set"
--parallel True
--snapshots_folder snapshots_test/DCE
--val_batch_size 1
--pretrain_dir snapshots/DCE/Epoch_best.pth
--model DCE-Net
このコードがあなたの研究に役立つなら、私たちの論文を引用してください:)
@inproceedings{zhang2021star,
title={STAR: A Structure-Aware Lightweight Transformer for Real-Time Image Enhancement},
author={Zhang, Zhaoyang and Jiang, Yitong and Jiang, Jun and Wang, Xiaogang and Luo, Ping and Gu, Jinwei},
booktitle={Proceedings of the IEEE/CVF International Conference on Computer Vision},
pages={4106--4115},
year={2021}
}