Tiefe Fusion und Restaufmerksamkeit für die NIR-Bildgebung
Übersicht: Dieses Repository enthält die Implementierung eines fortschrittlichen Deep-Learning-Modells zur Verbesserung der medizinischen Bildgebung. Das Projekt konzentriert sich auf die Integration tiefer Faltungs-Neuronaler Netze mit Fusions- und Restaufmerksamkeitsmechanismen, um die Genauigkeit und Effizienz der Bildrekonstruktion zu verbessern.
Hauptmerkmale: 1-Dual-Input-Verarbeitung: Nutzt NIR-Reflexionsdaten von zwei verschiedenen LED-Quellen, um eine umfassende Merkmalserfassung sicherzustellen. 2-Restaufmerksamkeitsmechanismus: Integriert Squeeze-and-Excite-Blöcke in Restaufmerksamkeitsrahmen, um die Bedeutung von Merkmalen dynamisch zu erhöhen. 3-Deep-Fusion-Strategie: Verwendet eine Fusionsschicht, die aus zwei Eingaben extrahierte Merkmale effektiv kombiniert und so den Bildrekonstruktionsprozess optimiert. 4-Erweiterte Leistungsmetriken: Implementiert Metriken wie RMSE (Root Mean Square Error), MAE (Mean Absolute Error) und PSNR (Peak Signal-to-Noise Ratio), um die Modellleistung zu bewerten.
Modellarchitektur: Die Modellarchitektur wurde mit Schwerpunkt auf der Handhabung der Komplexität von NIR-Daten entwickelt. Es verwendet Faltungsschichten, die auf die Verarbeitung eindimensionaler Reflexionsdaten zugeschnitten sind, und wandelt diese durch eine Reihe aufmerksamkeitserweiterter Faltungsschichten um, bevor die endgültige Bildausgabe rekonstruiert wird. Die Architektur betont die Fähigkeit, subtile Merkmale in Bildern zu erkennen, die für eine genaue Diagnose entscheidend sind.