Хоссейн Шакибания, Сина Рауфи и Хасан Хотанлу
Аннотация: изображения с низким освещением, характеризующиеся неадекватным освещением, вызовы по снижению ясности, приглушенные цвета и уменьшенные детали. Усиление изображений с низким освещением, важная задача в компьютерном зрении, направлена на исправление этих проблем путем улучшения яркости, контраста и общего качества восприятия, что облегчает точный анализ и интерпретацию. В этой статье представлена сверточная плотная сеть с вниманием (CDAN), новое решение для улучшения изображений с низким освещением. CDAN интегрирует архитектуру на основе автоэнкодера с сверточными и плотными блоками, дополненными механизмом внимания и пропусканием соединений. Эта архитектура обеспечивает эффективное распространение информации и обучение функции. Кроме того, выделенная фаза после обработки уточняет цветовой баланс и контраст. Наш подход демонстрирует заметный прогресс по сравнению с самыми современными результатами в повышении низкого освещения, демонстрируя его надежность в широком спектре сложных сценариев. Наша модель замечательно работает на контрольных наборах данных, эффективно смягчая недооценку и опытно восстанавливая текстуры и цвета в разнообразных сценариях с низким освещением. Это достижение подчеркивает потенциал CDAN для разнообразных задач компьютерного зрения, в частности, обеспечивая надежное обнаружение и распознавание объектов в сложных условиях низкого освещения.
Рисунок 1: Общая структура предложенной модели.
В этом разделе мы представляем экспериментальные результаты, полученные путем обучения нашей модели CDAN, используя набор данных низко освещенного (LOL) и оцениваем его производительность на нескольких наборах данных. Целью данной оценки является оценка надежности нашей модели в спектре сложных условий освещения.
Набор данных | Количество изображений | В паре | Характеристики |
---|---|---|---|
РЖУ НЕ МОГУ | 500 | ✅ | В помещении |
Exdark | 7363 | Чрезвычайно темный, крытый, открытый | |
Дикм | 69 | Внутренняя, на открытом воздухе | |
Вв | 24 | Сильно низко/переэкспонированные области |
Метод обучения | Метод | Ав. PSNR ↑ | Ав. SSIM ↑ | Ав. Lpips ↓ |
---|---|---|---|---|
Контролируется | Llnet | 17.959 | 0,713 | 0,360 |
Lightennet | 10.301 | 0,402 | 0,394 | |
Mbllen | 17.902 | 0,715 | 0,247 | |
Retinex-net | 16.774 | 0,462 | 0,474 | |
Добрый | 17.648 | 0,779 | 0,175 | |
КИНД ++ | 17.752 | 0,760 | 0,198 | |
Tbefn | 17.351 | 0,786 | 0,210 | |
Зеркальная зеркала | 15.050 | 0,597 | 0,337 | |
Lau-Net | 21.513 | 0,805 | 0,273 | |
Полуопервижение | Drbn | 15.125 | 0,472 | 0,316 |
Без присмотра | Просветление | 17.483 | 0,677 | 0,322 |
Нулевой выстрел | Эксплуатация | 15.783 | 0,515 | 0,373 |
Нулевой | 14.861 | 0,589 | 0,335 | |
Rrdnet | 11.392 | 0,468 | 0,361 | |
Предлагается (CDAN) | 20.102 | 0,816 | 0,167 |
Рисунок 2: Визуальное сравнение современных моделей на наборе данных Exdark.
Рисунок 3: Визуальное сравнение современных моделей на наборе данных DICM.
Чтобы начать работу с проектом CDAN, выполните эти шаги:
Вы можете клонировать репозиторий, используя git. Откройте свой терминал и запустите следующую команду:
git clone [email protected]:SinaRaoufi/CDAN.git
После клонирования перейдите в каталог проекта и найдите файл .env. Этот файл содержит важные значения и конфигурации гиперпараметра для модели CDAN. Вы можете настроить эти переменные в соответствии с вашими требованиями.
Откройте файл .env, используя текстовый редактор по вашему выбору, и измените значения по мере необходимости:
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
Вы можете установить зависимости проекта с помощью PIP:
pip install -r requirements.txt
Теперь вы готовы запустить проект CDAN. Чтобы начать обучение, используйте следующую команду:
python train.py
Чтобы проверить обученную модель, запустите:
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
Для обучения модели использовались следующее аппаратное и программное обеспечение:
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}