Hossein Shakibania、Sina Raoufi、およびHassan Khotanlou
要約:不十分な照明を特徴とする低光の画像は、明確さの減少、落ち着いた色、および詳細の減少の課題を引き起こします。コンピュータービジョンの重要なタスクである低光画像の強化は、輝度、コントラスト、および全体的な知覚品質を改善することにより、これらの問題を是正することを目的としており、それにより正確な分析と解釈が促進されます。このペーパーでは、低光画像を強化するための新しいソリューションである畳み込み密度の高い注意誘導ネットワーク(CDAN)を紹介します。 CDANは、注意メカニズムとスキップ接続によって補完され、自動エンコーダーベースのアーキテクチャを畳み込みおよび密なブロックと統合します。このアーキテクチャは、効率的な情報伝播と機能学習を保証します。さらに、専用の後処理フェーズは、カラーバランスとコントラストを改良します。私たちのアプローチは、低光の画像強化における最先端の結果と比較して顕著な進歩を示しており、幅広い挑戦的なシナリオでその堅牢性を示しています。私たちのモデルは、ベンチマークデータセットで著しく実行され、多様な低光光シナリオでのテクスチャと色の露出不足を効果的に緩和し、熟練したテクスチャと色を習得します。この成果は、多様なコンピュータービジョンタスクのCDANの可能性を強調しており、特に低光の条件における堅牢なオブジェクトの検出と認識を可能にします。
図1:提案されたモデルの全体的な構造。
このセクションでは、低光(lol)データセットを使用してCDANモデルをトレーニングし、複数のベンチマークデータセットでのパフォーマンスを評価することで得られた実験結果を示します。この評価の目的は、さまざまな挑戦的な照明条件全体でモデルの堅牢性を評価することです。
データセット | 画像数 | ペア | 特性 |
---|---|---|---|
笑 | 500 | ✅ | 屋内 |
exdark | 7363 | 非常に暗く、屋内、屋外 | |
DICM | 69 | 屋内、屋外 | |
VV | 24 | 露出されていないエリアの下/過度の領域 |
学習方法 | 方法 | 平均。 psnr↑ | 平均。 SSIM↑ | 平均。 LPIPS↓ |
---|---|---|---|---|
監督 | llnet | 17.959 | 0.713 | 0.360 |
Lightennet | 10.301 | 0.402 | 0.394 | |
Mbllen | 17.902 | 0.715 | 0.247 | |
retinex-net | 16.774 | 0.462 | 0.474 | |
親切 | 17.648 | 0.779 | 0.175 | |
Kind ++ | 17.752 | 0.760 | 0.198 | |
tbefn | 17.351 | 0.786 | 0.210 | |
DSLR | 15.050 | 0.597 | 0.337 | |
lau-net | 21.513 | 0.805 | 0.273 | |
半監督 | drbn | 15.125 | 0.472 | 0.316 |
監視なし | Enlightengan | 17.483 | 0.677 | 0.322 |
ゼロショット | excnet | 15.783 | 0.515 | 0.373 |
ゼロド | 14.861 | 0.589 | 0.335 | |
rrdnet | 11.392 | 0.468 | 0.361 | |
提案(CDAN) | 20.102 | 0.816 | 0.167 |
図2: Exdarkデータセット上の最先端モデルの視覚的比較。
図3: DICMデータセット上の最先端モデルの視覚的比較。
CDANプロジェクトを開始するには、次の手順に従ってください。
Gitを使用してリポジトリをクローンできます。端末を開き、次のコマンドを実行します。
git clone [email protected]:SinaRaoufi/CDAN.git
クローニング後、プロジェクトディレクトリに移動し、.envファイルを見つけます。このファイルには、CDANモデルの重要なハイパーパラメーター値と構成が含まれています。これらの変数を要件に応じてカスタマイズできます。
選択したテキストエディターを使用して.envファイルを開き、必要に応じて値を変更します。
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
PIPを使用してプロジェクト依存関係をインストールできます。
pip install -r requirements.txt
これで、CDANプロジェクトを実行する準備ができました。トレーニングを開始するには、次のコマンドを使用します。
python train.py
訓練されたモデルをテストするには、実行します。
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
次のハードウェアとソフトウェアがモデルのトレーニングに使用されました。
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}