Hossein Shakibania, Sina Raoufi und Hassan Khotanlou
Zusammenfassung: Bilde bei schlechten Lichtverhältnissen, gekennzeichnet durch unzureichende Beleuchtung, stellen Herausforderungen verminderter Klarheit, gedämpfte Farben und reduzierte Details dar. Die Verbesserung der Bildverbesserung bei geringem Licht, eine wesentliche Aufgabe in der Computer Vision, zielt darauf ab, diese Probleme durch Verbesserung der Helligkeit, des Kontrasts und der allgemeinen Wahrnehmungsqualität zu beheben und damit eine genaue Analyse und Interpretation zu erleichtern. Dieses Papier führt das resultale dichte aufmerksamkeitsgeführte Netzwerk (CDAN) ein, eine neuartige Lösung zur Verbesserung von Bildern mit schlechten Lichtverhältnissen. CDAN integriert eine autoencodierbasierte Architektur mit Faltungsblöcken und dichten Blöcken, ergänzt durch einen Aufmerksamkeitsmechanismus und übersprungen Verbindungen. Diese Architektur sorgt für eine effiziente Ausbreitung und Feature -Lernen. Darüber hinaus verfeinert eine dedizierte Nachbearbeitungsphase die Farbbalance und Kontrast. Unser Ansatz zeigt einen bemerkenswerten Fortschritt im Vergleich zu hochmodernen Ergebnissen zu einer Verbesserung des Bildes mit geringem Licht und zeigt seine Robustheit in einer Vielzahl herausfordernder Szenarien. Unser Modell spielt bemerkenswert bei Benchmark-Datensätzen, wodurch die Unterexposition effektiv gemindert und die Texturen und Farben in verschiedenen Szenarien mit niedrigem Licht kompetent restauriert wird. Diese Leistung unterstreicht das Potenzial von CDAN für vielfältige Computer-Vision-Aufgaben, insbesondere die Erkennung und Erkennung der robusten Objekte bei anspruchsvollen Bedingungen bei niedriger Licht.
Abbildung 1: Die Gesamtstruktur des vorgeschlagenen Modells.
In diesem Abschnitt präsentieren wir die experimentellen Ergebnisse, die durch das Training unseres CDAN-Modells mit dem Dataset Low-Light (LOL) und der Bewertung seiner Leistung auf mehreren Benchmark-Datensätzen erhalten werden. Der Zweck dieser Bewertung ist es, die Robustheit unseres Modells in einem Spektrum herausfordernder Beleuchtungsbedingungen zu bewerten.
Datensatz | Anzahl der Bilder | Gepaart | Eigenschaften |
---|---|---|---|
LOL | 500 | ✅ | Innenräume |
Exdark | 7363 | Extrem dunkel, im Innenbereich, im Freien | |
Dicm | 69 | Innenräume, Outdoor | |
VV | 24 | Stark unter/überbelichtete Gebiete |
Lernmethode | Verfahren | Avg. PSNR ↑ | Avg. SSIM ↑ | Avg. LPIPs ↓ |
---|---|---|---|---|
Beaufsichtigt | Llnet | 17.959 | 0,713 | 0,360 |
Lightennet | 10.301 | 0,402 | 0,394 | |
Mbllen | 17.902 | 0,715 | 0,247 | |
Retinex-Netz | 16.774 | 0,462 | 0,474 | |
Art | 17.648 | 0,779 | 0,175 | |
Art ++ | 17.752 | 0,760 | 0,198 | |
Tbefn | 17.351 | 0,786 | 0,210 | |
DSLR | 15.050 | 0,597 | 0,337 | |
Lau-net | 21.513 | 0,805 | 0,273 | |
Halbübergreifend | DRBN | 15.125 | 0,472 | 0,316 |
Unbeaufsichtigt | ELLILLIGLANGAN | 17.483 | 0,677 | 0,322 |
Null-Shot | Excnet | 15.783 | 0,515 | 0,373 |
Zero-DCE | 14.861 | 0,589 | 0,335 | |
RRDNET | 11.392 | 0,468 | 0,361 | |
Vorgeschlagen (CDan) | 20.102 | 0,816 | 0,167 |
Abbildung 2: Visueller Vergleich hochmoderner Modelle im Exdark-Datensatz.
Abbildung 3: Visueller Vergleich hochmoderner Modelle im DICM-Datensatz.
Befolgen Sie die folgenden Schritte, um mit dem CDAN -Projekt zu beginnen:
Sie können das Repository mit Git klonen. Öffnen Sie Ihr Terminal und führen Sie den folgenden Befehl aus:
git clone [email protected]:SinaRaoufi/CDAN.git
Navigieren Sie nach dem Klonen zum Projektverzeichnis und suchen Sie die .Env -Datei. Diese Datei enthält wichtige Hyperparameterwerte und Konfigurationen für das CDAN -Modell. Sie können diese Variablen entsprechend Ihren Anforderungen anpassen.
Öffnen Sie die .EnV -Datei mit einem Texteditor Ihrer Wahl und ändern Sie die Werte nach Bedarf:
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
Sie können Projektabhängigkeiten mit PIP installieren:
pip install -r requirements.txt
Sie sind jetzt bereit, das CDAN -Projekt auszuführen. Verwenden Sie den folgenden Befehl, um das Training zu starten:
python train.py
Um das trainierte Modell zu testen, rennen Sie:
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
Die folgende Hardware und Software wurden zum Training des Modells verwendet:
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}