Ein internationales Forscherteam aus Saudi-Arabien, Italien und Aserbaidschan hat ein fortschrittliches multimodales Bildfusionsmodell entwickelt, das die Erkennung von Alzheimer durch Magnetresonanztomographie (MRI) und Positronenemissionstomographie (PET) verbessert. Die Studie, veröffentlicht in Frontiers in Medical Technology, integriert strukturelle MRI-Daten mit funktionellen FDG-PET-Informationen aus der Alzheimer’s Disease Neuroimaging Initiative (ADNI), um anatomische und metabolische Veränderungen präzise zu erfassen.
Das Modell verwendet einen Datensatz mit 1200 multimodalen Bildpaaren von 300 Teilnehmern, aufgeteilt in kognitiv normale Personen, Patienten mit milder kognitiver Beeinträchtigung und Alzheimer-Patienten. Vor der Verarbeitung werden die Bilder durch Gaussian-Filterung geglättet, um Rauschen zu reduzieren, durch Skull-Stripping von nicht-hirnspezifischen Geweben befreit und durch Z-Score-Normalisierung standardisiert, um Intensitätswerte vergleichbar zu machen. Diese Schritte gewährleisten eine robuste Basis für die nachfolgende Analyse.
Für die Feature-Extraktion wird Voxel-based Morphometry (VBM) eingesetzt, um Graumaterie-Features aus MRI zu gewinnen, die mit Alzheimer-Progression korrelieren. Eine aus MRI generierte Graumaterie-Maske isoliert metabolische Aktivitäten in den PET-Scans. Die Features werden durch eine Mask-Coding-Strategie fusioniert, um eine einheitliche Darstellung zu schaffen, die sowohl anatomische als auch funktionelle Merkmale kombiniert.
Die Klassifikation erfolgt mit einem Glowworm Swarm-Optimized Spatial Multimodal Attention-Enriched Convolutional Neural Network (GWS-SMAtt-ECNN). Diese Architektur optimiert Feature-Auswahl und Netzwerkparameter durch Glowworm-Swarm-Algorithmus, integriert räumliche multimodale Aufmerksamkeit und verbessert die Konvolutionsschichten für eine präzise Alzheimer-Klassifikation. Die Implementierung in Python nutzt Bibliotheken wie PyTorch und SciPy auf Hardware mit NVIDIA-GPU und Intel-Core-i9-Prozessor.
Die Ergebnisse zeigen eine Genauigkeit von 98,70 Prozent, eine Recall von 96,73 Prozent und einen F1-Score von 94,22 Prozent, was das Modell gegenüber unimodalen Ansätzen und basischen Fusionsmethoden überlegen macht. Die Confusion-Matrix bestätigt eine hohe Klassifikationsrate mit minimalen Fehlern, insbesondere in der Unterscheidung der Klassen. Trainings- und Validierungskurven deuten auf Konvergenz ohne signifikantes Overfitting hin, mit einer Validierungsgenauigkeit über 94 Prozent nach 50 Epochen.
Eine Ablationsstudie unterstreicht den Beitrag jeder Komponente: Die Integration von VBM, SMAtt und GWS steigert die Genauigkeit schrittweise auf 98,70 Prozent. Ein Paired-t-Test vergleicht das Modell mit QS-LGBM, SA-BFRNN und QuartzNet, wobei p-Werte unter 0,05 die statistische Signifikanz der Überlegenheit bestätigen. Im Vergleich zu bestehenden Modellen wie GBM-DNN, FusionNet, NIN, CA, SA und CA-SA erzielt GWS-SMAtt-ECNN höhere Metriken in Genauigkeit, Precision, Recall und F1-Score.
Die Precision-Recall-Kurve mit einem Average-Precision-Score von 0,978 weist auf geringe Falsch-Positive hin, während die ROC-Kurve AUC-Werte von 0,87 bis 0,93 aufweist, mit Mikro- und Makro-Durchschnitten von 0,90. Pro-Klasse-Bewertungen ergeben eine durchschnittliche Sensitivität von 96,1 Prozent und Spezifität von 95,9 Prozent.
Das Modell adressiert Lücken in der Forschung, wie Datenheterogenität und Generalisierbarkeit, und fördert frühe, präzise Diagnosen, die klinische Entscheidungen unterstützen. Es könnte die Alzheimer-Versorgung verbessern, indem es neurodegenerative Veränderungen früher erkennt und personalisierte Therapien ermöglicht.
