Hossein Shakibania, Sina Raoufi et Hassan Khotanlou
Résumé: Des images à faible luminosité, caractérisées par un éclairage inadéquate, posent des défis de clarté diminuée, de couleurs en sourdine et de détails réduits. L'amélioration de l'image à faible lumière, une tâche essentielle dans la vision par ordinateur, vise à rectifier ces problèmes en améliorant la luminosité, le contraste et la qualité globale perceptuelle, facilitant ainsi une analyse et une interprétation précises. Cet article présente le réseau de dense dense convolutionnel (CDAN), une nouvelle solution pour améliorer les images à faible luminosité. CDAN intègre une architecture basée sur AutoEncoder avec des blocs convolutionnels et denses, complétés par un mécanisme d'attention et des connexions de saut. Cette architecture garantit une propagation efficace des informations et un apprentissage des fonctionnalités. De plus, une phase de post-traitement dédiée affine l'équilibre et le contraste des couleurs. Notre approche démontre des progrès notables par rapport aux résultats de pointe de l'image à faible lumière, présentant sa robustesse à travers un large éventail de scénarios difficiles. Notre modèle fonctionne remarquablement sur les ensembles de données de référence, atténuant efficacement la sous-exposition et la restauration approfondie des textures et des couleurs dans divers scénarios à faible luminosité. Cette réalisation souligne le potentiel de CDAN pour diverses tâches de vision par ordinateur, permettant notamment une détection et une reconnaissance d'objets robustes dans des conditions de faible luminosité.
Figure 1: La structure globale du modèle proposé.
Dans cette section, nous présentons les résultats expérimentaux obtenus en formant notre modèle CDAN à l'aide de l'ensemble de données à faible luminosité (LOL) et en évaluant ses performances sur plusieurs ensembles de données de référence. Le but de cette évaluation est d'évaluer la robustesse de notre modèle à travers un spectre de conditions d'éclairage difficiles.
Ensemble de données | Nombre d'images | Jumelé | Caractéristiques |
---|---|---|---|
MDR | 500 | ✅ | Intérieur |
Exdark | 7363 | Extrêmement sombre, intérieur, extérieur | |
Dicm | 69 | Intérieur, extérieur | |
Vv | 24 | Zones gravement sous / surexposées |
Méthode d'apprentissage | Méthode | Avg. PSNR ↑ | Avg. Ssim ↑ | Avg. LPIPS ↓ |
---|---|---|---|---|
Supervisé | Llnet | 17.959 | 0,713 | 0,360 |
Lightnenet | 10.301 | 0,402 | 0,394 | |
Mblen | 17.902 | 0,715 | 0,247 | |
Retinex-net | 16.774 | 0,462 | 0,474 | |
Gentil | 17.648 | 0,779 | 0,175 | |
Genre ++ | 17.752 | 0,760 | 0.198 | |
Tbefn | 17.351 | 0,786 | 0,210 | |
Reflex numérique | 15.050 | 0,597 | 0,337 | |
Lau-net | 21.513 | 0,805 | 0,273 | |
Semi-surveillé | Dbn | 15.125 | 0,472 | 0,316 |
Sans surveillance | Éclairer | 17.483 | 0,677 | 0,322 |
Zéro | Excnet | 15.783 | 0,515 | 0,373 |
Zéro-DCE | 14.861 | 0,589 | 0,335 | |
Rrdnet | 11.392 | 0,468 | 0,361 | |
Proposé (CDAN) | 20.102 | 0,816 | 0,167 |
Figure 2: Comparaison visuelle des modèles de pointe sur un ensemble de données Exdark.
Figure 3: Comparaison visuelle des modèles de pointe sur l'ensemble de données DICM.
Pour commencer le projet CDAN, suivez ces étapes:
Vous pouvez cloner le référentiel à l'aide de Git. Ouvrez votre terminal et exécutez la commande suivante:
git clone [email protected]:SinaRaoufi/CDAN.git
Après le clonage, accédez au répertoire du projet et localisez le fichier .env. Ce fichier contient d'importantes valeurs et configurations d'hyperparamètre pour le modèle CDAN. Vous pouvez personnaliser ces variables en fonction de vos exigences.
Ouvrez le fichier .env à l'aide d'un éditeur de texte de votre choix et modifiez les valeurs selon les besoins:
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
Vous pouvez installer des dépendances du projet à l'aide de PIP:
pip install -r requirements.txt
Vous êtes maintenant prêt à exécuter le projet CDAN. Pour démarrer la formation, utilisez la commande suivante:
python train.py
Pour tester le modèle formé, exécutez:
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
Le matériel et les logiciels suivants ont été utilisés pour la formation du modèle:
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}