Optimisation du modèle de diffusion avec apprentissage profond
Dimond: Recherche sur l’optimisation des modèles de diffusion par apprentissage profond
Contexte académique
En neurosciences et en applications cliniques, l’imagerie par résonance magnétique de diffusion (Diffusion Magnetic Resonance Imaging, dMRI) est un outil important pour cartographier de manière non invasive la microstructure des tissus cérébraux et la connectivité neuronale. Cependant, le coût de calcul pour estimer avec précision les paramètres des modèles de signal de diffusion est élevé et sensible au bruit des images. Diverses méthodes d’estimation supervisée basées sur l’apprentissage profond ont montré leur potentiel pour améliorer l’efficacité et les performances, mais ces méthodes nécessitent souvent des données d’entraînement supplémentaires et manquent de généralisation.
Source de l’article
Cette recherche, réalisée en collaboration par Zihan Li, Ziyu Li, Berkin Bilgic, Hong-Hsi Lee, Kui Ying, Susie Y. Huang, Hongen Liao et Qiyuan Tian (auteur correspondant), a été publiée dans la revue « Advanced Science » sous le numéro DOI : 10.1002/advs.202307965.
Aperçu du flux de travail de la recherche
Cette étude propose un nouveau cadre appelé « Dimond » utilisant des informations physiques et l’apprentissage profond auto-supervisé pour optimiser les modèles de diffusion. Le cadre Dimond utilise un réseau neuronal pour mapper les données d’imagerie d’entrée aux paramètres du modèle, et optimise le réseau en minimisant les différences entre les données collectées en entrée et les données synthétiques générées par la paramétrisation du modèle de diffusion.
1. Processus de mappage
Dimond utilise un réseau neuronal (NN) pour mapper les données de diffusion d’entrée aux images paramétriques du modèle de diffusion. Spécifiquement, les données de diffusion d’entrée sont [i = [i_1,\dots,i_n]^T] (où n est le nombre de volumes d’image), et les images paramétriques mappées sont [g(i) = p = [p_1,\dots,p_m]^T] (où m est le nombre de volumes d’image microstructuraux).
2. Processus de modélisation
Les images paramétriques sont ensuite utilisées pour synthétiser des volumes d’image aux mêmes directions de codage de diffusion et valeurs b que les données de diffusion d’entrée, produisant [ \hat{i} = [\hat{i}_1,\dots,\hat{i}_n]^T ].
3. Processus d’optimisation
Un réseau neuronal est optimisé en minimisant l’erreur quadratique moyenne entre les intensités d’image des données collectées et des images synthétiques ( [i] et [ \hat{i} ]) dans le masque des paramètres du modèle de diffusion d’intérêt. La fonction de perte peut intégrer des connaissances a priori du modèle de diffusion (comme la distribution du bruit, la parcimonie, et la faible dimensionnalité) pour améliorer davantage les performances.
4. Méthode expérimentale et données
a. Données simulées
Des signaux de diffusion synthétiques ont été générés pour évaluer l’efficacité de Dimond. Les signaux simulés étaient présents sous forme d’un, deux, ou trois tenseurs, avec différents niveaux de bruit de Rician (rapport signal sur bruit de 10 et 20). Les entrées incluaient un nombre différent de signaux pondérés de diffusion b=0 et b=1000s/mm².
b. Données de diffusion du projet Human Connectome Project (HCP)
Les données de dMRI prétraitées de 10 sujets sains provenant du HCP ont été utilisées, avec une résolution spatiale de 1,25 mm. Les données incluaient 18 volumes b=0 et 90 volumes pondérés par la diffusion à divers b (1000, 2000 et 3000s/mm²). Des ensembles de données sous-échantillonnées ont été générés pour évaluer les performances de Dimond.
c. Données microstructurales du Massachusetts General Hospital (MGH) (CDMD)
Les données CDMD ont été utilisées pour évaluer la capacité de généralisation inter-données de Dimond. Les données incluaient 50 volumes b=0 et 800 volumes pondérés par la diffusion à divers b.
5. Résultats de Dimond sur les données simulées
Les résultats de Dimond sur les données simulées montrent que les indices DTI générés par Dimond sont plus précis que ceux obtenus par des méthodes de régression des moindres carrés ordinaires (comme l’implémentation de fsl), surtout dans des conditions de bruit élevé. L’utilisation de MC dropout a encore amélioré les performances de Dimond.
6. Performances de Dimond sur les données HCP
Les expériences démontrent que les composantes tensorielles et les indices DTI générés par Dimond sur les données HCP sont plus propres et plus proches des valeurs de référence que les méthodes traditionnelles. Dimond a montré un avantage significatif en réduction du bruit et une bonne généralisation inter-sujets et inter-données. De plus, le réglage fin du réseau pré-entraîné pouvait réduire le temps d’entraînement et améliorer la cohérence des résultats.
7. Performances de Dimond sur des modèles complexes
Dimond a excellé dans l’ajustement des modèles de diffusion plus complexes (comme les modèles DKI et NODDI), surpassant les méthodes traditionnelles et réduisant considérablement le temps d’ajustement des modèles. Par exemple, Dimond a réduit le temps d’ajustement du modèle NODDI sur l’ensemble de données haute résolution HCP de 12 heures avec des méthodes traditionnelles à 24 minutes, et même à 32 secondes avec le transfert d’apprentissage.
Importance et valeur de la recherche
Le cadre Dimond utilise des techniques d’apprentissage profond pour résoudre les problèmes d’efficacité et de précision dans l’estimation des paramètres des modèles de diffusion, offrant une méthode pratique pour la cartographie non invasive de la microstructure des tissus cérébraux et la connectivité neuronale. Ses caractéristiques auto-supervisées et l’intégration des informations physiques augmentent sa praticabilité et son acceptabilité dans les applications cliniques et en sciences neuronales. En outre, Dimond, en tant qu’un solveur universel, simplifie le développement, le déploiement et la distribution des modèles de diffusion, et améliore l’efficacité de calcul et la conservation d’énergie.
Points forts de la recherche
- Optimisation des modèles de diffusion par des techniques d’apprentissage profond, augmentant significativement l’efficacité et la précision de l’ajustement.
- Apprentissage auto-supervisé, réduisant le besoin en données d’entraînement supplémentaires et résolvant les problèmes de généralisation.
- Le processus d’optimisation intègre diverses connaissances a priori, améliorant encore les performances de l’estimation du modèle.
- Des expériences inter-données et inter-sujets valident une bonne capacité de généralisation, supportant l’apprentissage par transfert.
- Ajustement efficace des modèles microstructuraux complexes (comme DKI et NODDI), réduisant considérablement le temps d’ajustement.
Conclusion
Le cadre Dimond, utilisant une méthode d’optimisation innovante par apprentissage profond, montre une nouvelle application prometteuse pour l’estimation des paramètres des modèles de diffusion. Cette méthode a démontré sa supériorité tant sur les données simulées que sur les données HCP, ainsi qu’une efficacité et une précision élevées sur des modèles de diffusion plus complexes. L’introduction de Dimond offre un outil puissant pour la recherche sur l’imagerie de la microstructure et la connectivité neuronale, présentant une valeur scientifique et applicative étendue.