Hossein Shakibania, Sina Raoufi y Hassan Khotanlou
Resumen: Imágenes con poca luz, caracterizadas por una iluminación inadecuada, plantean desafíos de claridad disminuida, colores apagados y detalles reducidos. La mejora de la imagen con poca luz, una tarea esencial en la visión por computadora, tiene como objetivo rectificar estos problemas mejorando el brillo, el contraste y la calidad perceptiva general, facilitando así un análisis e interpretación precisos. Este documento presenta la red de atención densa convolucional (CDAN), una solución novedosa para mejorar las imágenes con poca luz. CDAN integra una arquitectura basada en autoencoder con bloques convolucionales y densos, complementados por un mecanismo de atención y conexiones de salto. Esta arquitectura garantiza una propagación de información eficiente y aprendizaje de características. Además, una fase de postprocesamiento dedicada refina el equilibrio de color y el contraste. Nuestro enfoque demuestra un progreso notable en comparación con los resultados de última generación en la mejora de la imagen con poca luz, mostrando su robustez en una amplia gama de escenarios desafiantes. Nuestro modelo se desempeña notablemente en los conjuntos de datos de referencia, mitigando efectivamente la insuficiencia y la restauración de texturas y colores de manera competente en diversos escenarios de poca luz. Este logro subraya el potencial de CDAN para diversas tareas de visión por computadora, lo que permite la detección y el reconocimiento de objetos robustos en condiciones desafiantes de poca luz.
Figura 1: La estructura general del modelo propuesto.
En esta sección, presentamos los resultados experimentales obtenidos entrenando nuestro modelo CDAN utilizando el conjunto de datos de poca luz (LOL) y evaluando su rendimiento en múltiples conjuntos de datos de referencia. El propósito de esta evaluación es evaluar la robustez de nuestro modelo en un espectro de condiciones de iluminación desafiantes.
Conjunto de datos | No. de imágenes | Emparejado | Características |
---|---|---|---|
JAJAJA | 500 | ✅ | Interior |
Exdark | 7363 | Extremadamente oscuro, interior, al aire libre | |
DICM | 69 | Interior, al aire libre | |
VV | 24 | Áreas severamente bajo/sobreexpuestas |
Método de aprendizaje | Método | Avg. PSNR ↑ | Avg. SSIM ↑ | Avg. LPIP ↓ |
---|---|---|---|---|
Supervisado | LLNET | 17.959 | 0.713 | 0.360 |
Lightennet | 10.301 | 0.402 | 0.394 | |
Mbllen | 17.902 | 0.715 | 0.247 | |
Retinex-net | 16.774 | 0.462 | 0.474 | |
Amable | 17.648 | 0.779 | 0.175 | |
Kind ++ | 17.752 | 0.760 | 0.198 | |
Tbefn | 17.351 | 0.786 | 0.210 | |
DSLR | 15.050 | 0.597 | 0.337 | |
Red | 21.513 | 0.805 | 0.273 | |
Semi-supervisado | Drbn | 15.125 | 0.472 | 0.316 |
No supervisado | Ilustrado | 17.483 | 0.677 | 0.322 |
Cero | Excnet | 15.783 | 0.515 | 0.373 |
Cero-dce | 14.861 | 0.589 | 0.335 | |
Rrdnet | 11.392 | 0.468 | 0.361 | |
Propuesto (CDAN) | 20.102 | 0.816 | 0.167 |
Figura 2: Comparación visual de modelos de última generación en el conjunto de datos Exdark.
Figura 3: Comparación visual de modelos de última generación en el conjunto de datos DICM.
Para comenzar con el proyecto CDAN, siga estos pasos:
Puede clonar el repositorio usando git. Abra su terminal y ejecute el siguiente comando:
git clone [email protected]:SinaRaoufi/CDAN.git
Después de la clonación, navegue al directorio del proyecto y ubique el archivo .env. Este archivo contiene valores y configuraciones de hiperparameter importantes para el modelo CDAN. Puede personalizar estas variables de acuerdo con sus requisitos.
Abra el archivo .env usando un editor de texto de su elección y modifique los valores según sea necesario:
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
Puede instalar dependencias del proyecto utilizando PIP:
pip install -r requirements.txt
Ahora estás listo para ejecutar el proyecto CDAN. Para comenzar la capacitación, use el siguiente comando:
python train.py
Para probar el modelo entrenado, ejecute:
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
El siguiente hardware y software se utilizaron para capacitar al modelo:
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}