Hossein Shakibania, Sina Raoufi e Hassan Khotanlou
Resumo: Imagens com pouca luz, caracterizadas por iluminação inadequada, apresentam desafios de clareza diminuída, cores suaves e detalhes reduzidos. O aprimoramento da imagem com pouca luz, uma tarefa essencial na visão computacional, visa corrigir esses problemas, melhorando o brilho, o contraste e a qualidade perceptiva geral, facilitando a análise e interpretação precisas. Este artigo apresenta a rede convolucional densa guiada por atenção (CDAN), uma nova solução para aprimorar imagens com pouca luz. O CDAN integra uma arquitetura baseada em autoencoder com blocos convolucionais e densos, complementados por um mecanismo de atenção e conexões de pular. Essa arquitetura garante propagação de informações eficientes e aprendizado de recursos. Além disso, uma fase de pós-processamento dedicada refina o equilíbrio e o contraste da cor. Nossa abordagem demonstra progresso notável em comparação com os resultados de última geração em aprimoramento de imagem com baixa luz, mostrando sua robustez em uma ampla gama de cenários desafiadores. Nosso modelo tem um desempenho extraordinariamente sobre conjuntos de dados de referência, mitigando efetivamente a subexposição e restaurando proficientemente texturas e cores em diversos cenários de baixa luz. Essa conquista ressalta o potencial do CDAN para diversas tarefas de visão computacional, principalmente permitindo detecção e reconhecimento de objetos robustos em desafiar condições de baixa luz.
Figura 1: A estrutura geral do modelo proposto.
Nesta seção, apresentamos os resultados experimentais obtidos treinando nosso modelo CDAN usando o conjunto de dados com pouca luz (LOL) e avaliando seu desempenho em vários conjuntos de dados de benchmark. O objetivo desta avaliação é avaliar a robustez de nosso modelo em um espectro de condições desafiadoras de iluminação.
Conjunto de dados | No. de imagens | Emparelhado | Características |
---|---|---|---|
LOL | 500 | ✅ | Interior |
Exdark | 7363 | Extremamente escuro, interior, ao ar livre | |
Dicm | 69 | Interno, ao ar livre | |
Vv | 24 | Gravemente sub/superexposto |
Método de aprendizado | Método | Avg. PSNR ↑ | Avg. SSIM ↑ | Avg. LPIPS ↓ |
---|---|---|---|---|
Supervisionado | Llnet | 17.959 | 0,713 | 0,360 |
LightenNet | 10.301 | 0,402 | 0,394 | |
Mbllen | 17.902 | 0,715 | 0,247 | |
Retinex-Net | 16.774 | 0,462 | 0,474 | |
Tipo | 17.648 | 0,779 | 0,175 | |
Tipo ++ | 17.752 | 0,760 | 0,198 | |
Tbefn | 17.351 | 0,786 | 0,210 | |
Dslr | 15.050 | 0,597 | 0,337 | |
Lau-Net | 21.513 | 0,805 | 0,273 | |
Semi-supervisionado | Drbn | 15.125 | 0,472 | 0,316 |
Não supervisionado | Ilumlengan | 17.483 | 0,677 | 0,322 |
Zero-shot | Excnet | 15.783 | 0,515 | 0,373 |
Zero-DCE | 14.861 | 0,589 | 0,335 | |
Rrdnet | 11.392 | 0,468 | 0,361 | |
Proposto (CDAN) | 20.102 | 0,816 | 0,167 |
Figura 2: Comparação visual de modelos de ponta no conjunto de dados ExDark.
Figura 3: Comparação visual dos modelos de ponta no conjunto de dados DICM.
Para começar com o projeto CDAN, siga estas etapas:
Você pode clonar o repositório usando o Git. Abra seu terminal e execute o seguinte comando:
git clone [email protected]:SinaRaoufi/CDAN.git
Após a clonagem, navegue até o diretório do projeto e localize o arquivo .env. Este arquivo contém valores e configurações de hiperparameter importantes para o modelo CDAN. Você pode personalizar essas variáveis de acordo com seus requisitos.
Abra o arquivo .env usando um editor de texto de sua escolha e modifique os valores conforme necessário:
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
Você pode instalar dependências do projeto usando PIP:
pip install -r requirements.txt
Agora você está pronto para executar o projeto CDAN. Para iniciar o treinamento, use o seguinte comando:
python train.py
Para testar o modelo treinado, execute:
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
O seguinte hardware e software foram usados para treinar o modelo:
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}