حسين شاكيبانيا ، سينا راوفي ، وحسن خوتانلو
الخلاصة: الصور المنخفضة الضوء ، التي تتميز بعدم كفاية الإضاءة ، تشكل تحديات من الوضوح المتناقص ، والألوان الصامتة ، والتفاصيل المنخفضة. يهدف تحسين الصور المنخفضة الضوء ، وهي مهمة أساسية في رؤية الكمبيوتر ، إلى تصحيح هذه المشكلات من خلال تحسين السطوع والتباين والجودة الإدراكية الشاملة ، وبالتالي تسهيل التحليل والتفسير الدقيق. تقدم هذه الورقة الشبكة الموجه الاهتمام الكثيفة (CDAN) ، وهو حل جديد لتعزيز الصور منخفضة الضوء. يدمج CDAN بنية قائمة على أشرطة تلقائية مع كتل تلافيفية وكثيفة ، تكملها آلية الانتباه وتخطي الاتصالات. تضمن هذه الهندسة المعمارية نشر المعلومات الفعالة والتعلم. علاوة على ذلك ، تقوم مرحلة ما بعد المعالجة المخصصة بتحسين توازن اللون والتباين. يوضح نهجنا تقدمًا ملحوظًا مقارنةً بالنتائج الحديثة في تعزيز الصور المنخفضة الضوء ، مما يعرض متانةها عبر مجموعة واسعة من السيناريوهات الصعبة. يعمل نموذجنا بشكل ملحوظ على مجموعات البيانات القياسية ، ويخفف بشكل فعال من التعرض بشكل فعال واستعادة القوام والألوان الكفاءة في سيناريوهات منخفضة الإضاءة منخفضة. يؤكد هذا الإنجاز على إمكانات CDAN لمهام رؤية الكمبيوتر المتنوعة ، ولا سيما تمكين الكشف القوي للكائنات والاعتراف بها في ظروف الإضاءة المنخفضة.
الشكل 1: الهيكل العام للنموذج المقترح.
في هذا القسم ، نقدم النتائج التجريبية التي تم الحصول عليها عن طريق تدريب نموذج CDAN الخاص بنا باستخدام مجموعة بيانات الإضاءة المنخفضة (LOL) وتقييم أدائها على مجموعات البيانات القياسية المتعددة. الغرض من هذا التقييم هو تقييم متانة نموذجنا عبر مجموعة من ظروف الإضاءة الصعبة.
مجموعة البيانات | عدد الصور | مقترنة | صفات |
---|---|---|---|
مضحك جداً | 500 | ✅ | داخلي |
exdark | 7363 | مظلمة للغاية ، داخلية ، في الهواء الطلق | |
DICM | 69 | داخلي ، في الهواء الطلق | |
VV | 24 | شديدة تحت/مناطق معرضة للغاية |
طريقة التعلم | طريقة | متوسط. PSNR ↑ | متوسط. ssim ↑ | متوسط. LPIPS ↓ |
---|---|---|---|---|
تحت الإشراف | llnet | 17.959 | 0.713 | 0.360 |
لايتنيت | 10.301 | 0.402 | 0.394 | |
مبللين | 17.902 | 0.715 | 0.247 | |
RETINX-NET | 16.774 | 0.462 | 0.474 | |
عطوف | 17.648 | 0.779 | 0.175 | |
نوع ++ | 17.752 | 0.760 | 0.198 | |
tbefn | 17.351 | 0.786 | 0.210 | |
DSLR | 15.050 | 0.597 | 0.337 | |
لاو-نيت | 21.513 | 0.805 | 0.273 | |
شبه إشراف | DRBN | 15.125 | 0.472 | 0.316 |
غير خاضع للإشراف | Enlightengan | 17.483 | 0.677 | 0.322 |
صفر | excnet | 15.783 | 0.515 | 0.373 |
صفر ديس | 14.861 | 0.589 | 0.335 | |
rrdnet | 11.392 | 0.468 | 0.361 | |
مقترح (CDAN) | 20.102 | 0.816 | 0.167 |
الشكل 2: المقارنة البصرية للنماذج الحديثة على مجموعة بيانات Exdark.
الشكل 3: المقارنة البصرية للنماذج الحديثة على مجموعة بيانات DICM.
للبدء في مشروع CDAN ، اتبع هذه الخطوات:
يمكنك استنساخ المستودع باستخدام git. افتح المحطة الخاصة بك وقم بتشغيل الأمر التالي:
git clone [email protected]:SinaRaoufi/CDAN.git
بعد الاستنساخ ، انتقل إلى دليل المشروع وتحديد ملف .env. يحتوي هذا الملف على قيم وتكوينات هائلة من الفائقة لنموذج CDAN. يمكنك تخصيص هذه المتغيرات وفقًا لمتطلباتك.
افتح ملف .env باستخدام محرر نصوص من اختيارك وتعديل القيم حسب الحاجة:
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
يمكنك تثبيت تبعيات المشروع باستخدام PIP:
pip install -r requirements.txt
أنت الآن مستعد لتشغيل مشروع CDAN. لبدء التدريب ، استخدم الأمر التالي:
python train.py
لاختبار النموذج المدرب ، قم بتشغيل:
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
تم استخدام الأجهزة والبرامج التالية لتدريب النموذج:
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}