Hossein Shakibania, Sina Raoufi, dan Hassan Khotanlou
Abstrak: Gambar rendah cahaya, ditandai dengan iluminasi yang tidak memadai, pose tantangan dari kejelasan yang berkurang, warna yang diredam, dan detail yang dikurangi. Peningkatan gambar cahaya rendah, tugas penting dalam visi komputer, bertujuan untuk memperbaiki masalah ini dengan meningkatkan kecerahan, kontras, dan kualitas persepsi secara keseluruhan, sehingga memfasilitasi analisis dan interpretasi yang akurat. Makalah ini memperkenalkan jaringan yang dipandu perhatian padat (CDA), solusi baru untuk meningkatkan gambar cahaya rendah. CDAN mengintegrasikan arsitektur berbasis autoencoder dengan blok konvolusional dan padat, dilengkapi dengan mekanisme perhatian dan melewatkan koneksi. Arsitektur ini memastikan perambatan informasi yang efisien dan pembelajaran fitur. Selain itu, fase pasca pemrosesan khusus menyempurnakan keseimbangan warna dan kontras. Pendekatan kami menunjukkan kemajuan penting dibandingkan dengan hasil canggih dalam peningkatan gambar cahaya rendah, menampilkan ketahanannya di berbagai skenario yang menantang. Model kami berkinerja luar biasa pada dataset benchmark, secara efektif memitigasi paparan yang kurang dan dengan mahir memulihkan tekstur dan warna dalam skenario cahaya rendah yang beragam. Pencapaian ini menggarisbawahi potensi CDAN untuk beragam tugas visi komputer, terutama memungkinkan deteksi dan pengakuan objek yang kuat dalam kondisi rendah yang menantang.
Gambar 1: Struktur keseluruhan model yang diusulkan.
Pada bagian ini, kami menyajikan hasil eksperimen yang diperoleh dengan melatih model CDAN kami menggunakan dataset rendah-cahaya (LOL) dan mengevaluasi kinerjanya pada beberapa dataset benchmark. Tujuan dari evaluasi ini adalah untuk menilai kekokohan model kami di seluruh spektrum kondisi pencahayaan yang menantang.
Dataset | Jumlah gambar | Berpasangan | Karakteristik |
---|---|---|---|
TERTAWA TERBAHAK-BAHAK | 500 | ✅ | Dalam |
Exdark | 7363 | Sangat gelap, indoor, outdoor | |
DICM | 69 | Indoor, luar ruangan | |
Vv | 24 | Sangat di bawah/area yang dieksploitasi |
Metode pembelajaran | Metode | Rata -rata. Psnr ↑ | Rata -rata. SSIM ↑ | Rata -rata. LPIPS ↓ |
---|---|---|---|---|
Diawasi | Llnet | 17.959 | 0.713 | 0.360 |
Lightennet | 10.301 | 0.402 | 0.394 | |
Mbllen | 17.902 | 0.715 | 0.247 | |
Retinex-net | 16.774 | 0.462 | 0.474 | |
Baik | 17.648 | 0.779 | 0.175 | |
Jenis ++ | 17.752 | 0.760 | 0.198 | |
Tbefn | 17.351 | 0.786 | 0.210 | |
Dslr | 15.050 | 0,597 | 0.337 | |
Lau-net | 21.513 | 0.805 | 0.273 | |
Semi-diawasi | Drbn | 15.125 | 0.472 | 0.316 |
Tanpa pengawasan | Pencahayaan | 17.483 | 0.677 | 0.322 |
Zero-shot | Excnet | 15.783 | 0,515 | 0.373 |
Zero-DCE | 14.861 | 0,589 | 0.335 | |
Rrdnet | 11.392 | 0.468 | 0.361 | |
Diusulkan (CDA) | 20.102 | 0.816 | 0.167 |
Gambar 2: Perbandingan visual model canggih pada dataset Exdark.
Gambar 3: Perbandingan visual model canggih pada dataset DICM.
Untuk memulai dengan proyek CDA, ikuti langkah -langkah ini:
Anda dapat mengkloning repositori menggunakan git. Buka terminal Anda dan jalankan perintah berikut:
git clone [email protected]:SinaRaoufi/CDAN.git
Setelah kloning, arahkan ke direktori proyek dan cari file .env. File ini berisi nilai dan konfigurasi hiperparameter penting untuk model CDAN. Anda dapat menyesuaikan variabel -variabel ini sesuai dengan kebutuhan Anda.
Buka file .env menggunakan editor teks pilihan Anda dan memodifikasi nilai yang diperlukan:
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
Anda dapat menginstal dependensi proyek menggunakan PIP:
pip install -r requirements.txt
Anda sekarang siap menjalankan proyek CDAN. Untuk memulai pelatihan, gunakan perintah berikut:
python train.py
Untuk menguji model yang terlatih, jalankan:
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
Perangkat keras dan perangkat lunak berikut digunakan untuk melatih model:
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}