Hossein Shakibania, Sina Raoufi และ Hassan Khotanlou
บทคัดย่อ: ภาพที่มีแสงน้อยโดดเด่นด้วยการส่องสว่างไม่เพียงพอความท้าทายของความชัดเจนที่ลดลงสีที่ไม่ลงรอยกันและรายละเอียดที่ลดลง การเพิ่มประสิทธิภาพของภาพที่มีแสงน้อยเป็นงานที่สำคัญในการมองเห็นคอมพิวเตอร์มีจุดมุ่งหมายเพื่อแก้ไขปัญหาเหล่านี้โดยการปรับปรุงความสว่างความคมชัดและคุณภาพการรับรู้โดยรวมซึ่งช่วยให้การวิเคราะห์และการตีความที่แม่นยำ บทความนี้นำเสนอเครือข่ายที่ให้ความสนใจกับความสนใจ (CDAN) ซึ่งเป็นโซลูชั่นใหม่สำหรับการเพิ่มภาพที่มีแสงน้อย CDAN รวมสถาปัตยกรรมที่ใช้อัตโนมัติกับบล็อก convolutional และหนาแน่นซึ่งเสริมด้วยกลไกความสนใจและการเชื่อมต่อข้าม สถาปัตยกรรมนี้ช่วยให้มั่นใจได้ว่าการเผยแพร่ข้อมูลที่มีประสิทธิภาพและการเรียนรู้คุณสมบัติ นอกจากนี้เฟสหลังการประมวลผลโดยเฉพาะจะปรับสมดุลสีและความคมชัด วิธีการของเราแสดงให้เห็นถึงความก้าวหน้าที่น่าทึ่งเมื่อเทียบกับผลลัพธ์ที่ล้ำสมัยในการปรับปรุงภาพที่มีแสงน้อยแสดงให้เห็นถึงความแข็งแกร่งในสถานการณ์ที่ท้าทายหลากหลาย โมเดลของเราดำเนินการอย่างน่าทึ่งในชุดข้อมูลมาตรฐานช่วยลดการสัมผัสได้อย่างมีประสิทธิภาพและการฟื้นฟูพื้นผิวและสีที่มีความเชี่ยวชาญในสถานการณ์ที่มีแสงน้อยที่หลากหลาย ความสำเร็จนี้ตอกย้ำศักยภาพของ CDAN สำหรับงานวิสัยทัศน์คอมพิวเตอร์ที่หลากหลายโดยเฉพาะอย่างยิ่งทำให้การตรวจจับวัตถุที่แข็งแกร่งและการรับรู้ในการท้าทายสภาพแสงน้อย
รูปที่ 1: โครงสร้างโดยรวมของแบบจำลองที่เสนอ
ในส่วนนี้เรานำเสนอผลการทดลองที่ได้จากการฝึกอบรมโมเดล CDAN ของเราโดยใช้ชุดข้อมูลแสงต่ำ (LOL) และประเมินประสิทธิภาพของมันในชุดข้อมูลมาตรฐานหลายชุด จุดประสงค์ของการประเมินนี้คือการประเมินความทนทานของแบบจำลองของเราในช่วงเวลาของสภาพแสงที่ท้าทาย
ชุดข้อมูล | จำนวนภาพ | จับคู่ | ลักษณะเฉพาะ |
---|---|---|---|
ฮ่าๆ | 500 | ในร่ม | |
exdark | 7363 | มืดมากในร่มกลางแจ้ง | |
dicm | 69 | ในร่มกลางแจ้ง | |
VV | 24 | ภายใต้/พื้นที่มากเกินไป |
วิธีการเรียนรู้ | วิธี | avg. psnr ↑ | avg. SSIM ↑ | avg. LPIPS ↓ |
---|---|---|---|---|
ดูแล | llnet | 17.959 | 0.713 | 0.360 |
Lightennet | 10.301 | 0.402 | 0.394 | |
mbllen | 17.902 | 0.715 | 0.247 | |
รีดติเน็กซ์-เน็ต | 16.774 | 0.462 | 0.474 | |
ใจดี | 17.648 | 0.779 | 0.175 | |
ชนิด ++ | 17.752 | 0.760 | 0.198 | |
tbefn | 17.351 | 0.786 | 0.210 | |
DSLR | 15.050 | 0.597 | 0.337 | |
เลาเน็ต | 21.513 | 0.805 | 0.273 | |
กึ่งอุณหภูมิ | DRBN | 15.125 | 0.472 | 0.316 |
ไม่ได้รับอนุญาต | ผู้ให้ความรู้ | 17.483 | 0.677 | 0.322 |
เป็นศูนย์ | excnet | 15.783 | 0.515 | 0.373 |
ศูนย์ | 14.861 | 0.589 | 0.335 | |
rrdnet | 11.392 | 0.468 | 0.361 | |
เสนอ (CDAN) | 20.102 | 0.816 | 0.167 |
รูปที่ 2: การเปรียบเทียบภาพของโมเดลที่ทันสมัยบนชุดข้อมูล exdark
รูปที่ 3: การเปรียบเทียบภาพของโมเดลที่ทันสมัยบนชุดข้อมูล DICM
ในการเริ่มต้นกับโครงการ CDAN ให้ทำตามขั้นตอนเหล่านี้:
คุณสามารถโคลนที่เก็บโดยใช้ Git เปิดเทอร์มินัลของคุณและเรียกใช้คำสั่งต่อไปนี้:
git clone [email protected]:SinaRaoufi/CDAN.git
หลังจากโคลนนิ่งนำทางไปยังไดเรกทอรีโครงการและค้นหาไฟล์. ENV ไฟล์นี้มีค่าไฮเปอร์พารามิเตอร์ที่สำคัญและการกำหนดค่าสำหรับรุ่น CDAN คุณสามารถปรับแต่งตัวแปรเหล่านี้ตามความต้องการของคุณ
เปิดไฟล์. ENV โดยใช้ตัวแก้ไขข้อความที่คุณเลือกและแก้ไขค่าตามต้องการ:
# Example .env file
# Directory paths
DATASET_DIR_ROOT=/path/to/your/dataset/directory
SAVE_DIR_ROOT=/path/to/your/saving/model/directory
MODEL_NAME=model
# Hyperparameters
INPUT_SIZE=200
BATCH_SIZE=32
EPOCHS=80
LEARNING_RATE=0.001
คุณสามารถติดตั้งการพึ่งพาโครงการโดยใช้ PIP:
pip install -r requirements.txt
ตอนนี้คุณพร้อมที่จะเรียกใช้โครงการ CDAN ในการเริ่มต้นการฝึกอบรมให้ใช้คำสั่งต่อไปนี้:
python train.py
เพื่อทดสอบโมเดลที่ผ่านการฝึกอบรมเรียกใช้:
python test.py --datasetPath " path/to/the/dataset " --modelPath " path/to/the/saved/model " --isPaired " True/False "
ฮาร์ดแวร์และซอฟต์แวร์ต่อไปนี้ใช้สำหรับการฝึกอบรมรุ่น:
@article { SHAKIBANIA2025104802 ,
title = { CDAN: Convolutional dense attention-guided network for low-light image enhancement } ,
journal = { Digital Signal Processing } ,
volume = { 156 } ,
pages = { 104802 } ,
year = { 2025 } ,
issn = { 1051-2004 } ,
doi = { https://doi.org/10.1016/j.dsp.2024.104802 } ,
url = { https://www.sciencedirect.com/science/article/pii/S1051200424004275 } ,
author = { Hossein Shakibania and Sina Raoufi and Hassan Khotanlou } ,
}