Hossein Shakibania,Sina Raoufi和Hassan Khotanlou
摘要:低光图像,其特征是照明不足,呈现出明确的挑战,柔和的颜色和减少的细节。低光图像增强,是计算机视觉中的重要任务,旨在通过改善亮度,对比度和整体感知质量来纠正这些问题,从而促进准确的分析和解释。本文介绍了卷积密集的注意引导网络(CDAN),这是一种用于增强弱光图像的新颖解决方案。 CDAN与卷积和致密块集成了基于自动编码器的体系结构,并以注意机制和跳过连接进行补充。该体系结构确保有效的信息传播和特征学习。此外,专门的后处理阶段可以完善色彩平衡和对比度。与最先进的方法相比,我们的方法表现出显着的进步,从而导致了低光的图像增强,从而展示了其在各种具有挑战性的场景中的稳健性。我们的模型在基准数据集上表现出色,可有效缓解暴露不足,并在各种弱光方案中熟练恢复纹理和颜色。这项成就强调了CDAN在各种计算机视觉任务中的潜力,特别是在挑战性的低光条件下实现了强大的对象检测和识别。
图1:所提出模型的整体结构。
在本节中,我们介绍了通过使用低光(LOL)数据集训练CDAN模型获得的实验结果,并评估其在多个基准数据集上的性能。该评估的目的是评估我们模型在各种挑战的照明条件下的鲁棒性。
数据集 | 图像数 | 配对 | 特征 |
---|---|---|---|
哈哈 | 500 | ✅ | 室内的 |
埃克斯 | 7363 | 极黑,室内,室外 | |
DICM | 69 | 室内,室外 | |
VV | 24 | 严重曝光/过度曝光的地区 |
学习方法 | 方法 | avg。 PSNR↑ | avg。 SSIM↑ | avg。 LPIP↓ |
---|---|---|---|---|
监督 | llnet | 17.959 | 0.713 | 0.360 |
Lightennet | 10.301 | 0.402 | 0.394 | |
mbllen | 17.902 | 0.715 | 0.247 | |
Etinex-net | 16.774 | 0.462 | 0.474 | |
种类 | 17.648 | 0.779 | 0.175 | |
KINT ++ | 17.752 | 0.760 | 0.198 | |
tbefn | 17.351 | 0.786 | 0.210 | |
DSLR | 15.050 | 0.597 | 0.337 | |
刘网 | 21.513 | 0.805 | 0.273 | |
半监督 | Drbn | 15.125 | 0.472 | 0.316 |
无监督 | Engightengan | 17.483 | 0.677 | 0.322 |
零射 | excnet | 15.783 | 0.515 | 0.373 |
零-DCE | 14.861 | 0.589 | 0.335 | |
rrdnet | 11.392 | 0.468 | 0.361 | |
提议(CDAN) | 20.102 | 0.816 | 0.167 |
图2:埃克萨克数据集上最新模型的视觉比较。
图3: DICM数据集上最新模型的视觉比较。
要开始进行CDAN项目,请执行以下步骤:
您可以使用git克隆存储库。打开终端并运行以下命令:
git clone [email protected]:SinaRaoufi/CDAN.git
克隆后,导航到项目目录并找到.ENV文件。该文件包含重要的超参数值和CDAN模型的配置。您可以根据自己的要求自定义这些变量。
使用您选择的文本编辑器打开.env文件,并根据需要修改值:
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
您可以使用PIP安装项目依赖项:
pip install -r requirements.txt
您现在准备运行CDAN项目。要开始培训,请使用以下命令:
python train.py
要测试训练有素的模型,请运行:
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
以下硬件和软件用于训练该模型:
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}