Hossein Shakibania,Sina Raoufi和Hassan Khotanlou
摘要:低光圖像,其特徵是照明不足,呈現出明確的挑戰,柔和的顏色和減少的細節。低光圖像增強,是計算機視覺中的重要任務,旨在通過改善亮度,對比度和整體感知質量來糾正這些問題,從而促進準確的分析和解釋。本文介紹了卷積密集的注意引導網絡(CDAN),這是一種用於增強弱光圖像的新穎解決方案。 CDAN與卷積和緻密塊集成了基於自動編碼器的體系結構,並以注意機制和跳過連接進行補充。該體系結構確保有效的信息傳播和特徵學習。此外,專門的後處理階段可以完善色彩平衡和對比度。與最先進的方法相比,我們的方法表現出顯著的進步,從而導致了低光的圖像增強,從而展示了其在各種具有挑戰性的場景中的穩健性。我們的模型在基準數據集上表現出色,可有效緩解暴露不足,並在各種弱光方案中熟練恢復紋理和顏色。這項成就強調了CDAN在各種計算機視覺任務中的潛力,特別是在挑戰性的低光條件下實現了強大的對象檢測和識別。
圖1:所提出模型的整體結構。
在本節中,我們介紹了通過使用低光(LOL)數據集訓練CDAN模型獲得的實驗結果,並評估其在多個基準數據集上的性能。該評估的目的是評估我們模型在各種挑戰的照明條件下的魯棒性。
數據集 | 圖像數 | 配對 | 特徵 |
---|---|---|---|
哈哈 | 500 | ✅ | 室內的 |
埃克斯 | 7363 | 極黑,室內,室外 | |
DICM | 69 | 室內,室外 | |
VV | 24 | 嚴重曝光/過度曝光的地區 |
學習方法 | 方法 | avg。 PSNR↑ | avg。 SSIM↑ | avg。 LPIP↓ |
---|---|---|---|---|
監督 | llnet | 17.959 | 0.713 | 0.360 |
Lightennet | 10.301 | 0.402 | 0.394 | |
mbllen | 17.902 | 0.715 | 0.247 | |
Etinex-net | 16.774 | 0.462 | 0.474 | |
種類 | 17.648 | 0.779 | 0.175 | |
KINT ++ | 17.752 | 0.760 | 0.198 | |
tbefn | 17.351 | 0.786 | 0.210 | |
DSLR | 15.050 | 0.597 | 0.337 | |
劉網 | 21.513 | 0.805 | 0.273 | |
半監督 | Drbn | 15.125 | 0.472 | 0.316 |
無監督 | Engightengan | 17.483 | 0.677 | 0.322 |
零射 | excnet | 15.783 | 0.515 | 0.373 |
零-DCE | 14.861 | 0.589 | 0.335 | |
rrdnet | 11.392 | 0.468 | 0.361 | |
提議(CDAN) | 20.102 | 0.816 | 0.167 |
圖2:埃克薩克數據集上最新模型的視覺比較。
圖3: DICM數據集上最新模型的視覺比較。
要開始進行CDAN項目,請執行以下步驟:
您可以使用git克隆存儲庫。打開終端並運行以下命令:
git clone [email protected]:SinaRaoufi/CDAN.git
克隆後,導航到項目目錄並找到.ENV文件。該文件包含重要的超參數值和CDAN模型的配置。您可以根據自己的要求自定義這些變量。
使用您選擇的文本編輯器打開.env文件,並根據需要修改值:
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
您可以使用PIP安裝項目依賴項:
pip install -r requirements.txt
您現在準備運行CDAN項目。要開始培訓,請使用以下命令:
python train.py
要測試訓練有素的模型,請運行:
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
以下硬件和軟件用於訓練該模型:
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}