Réseau d'apprentissage de régularisation implicite inspiré du mécanisme de génération de bruit et d'imagerie pour la reconstruction CT à faible dose

#Application d’un Réseau d’Apprentissage avec Régularisation Implicite Inspiré par la Génération de Bruit et le Mécanisme d’Imagerie à la Reconstruction de CT à Basse Dose

La tomodensitométrie à basse dose (Low-Dose Computed Tomography, LDCT) est devenue un outil important en imagerie médicale moderne, visant à réduire les risques radiatifs tout en maintenant la qualité des images. Cependant, réduire la dose de rayons X conduit souvent à des données endommagées et provoque une reconstruction par rétroprojection filtrée (FBP) médiocre, dégradant la qualité des images. Pour relever ce défi, les chercheurs développent constamment des algorithmes avancés pour obtenir des images de haute qualité tout en réduisant les bruits et les artefacts. Ce rapport détaille un nouveau résultat de recherche visant à améliorer la performance de la reconstruction LDCT.

Réseau d’Apprentissage avec Régularisation implicite

Introduction

En imagerie CT aux rayons X, la réduction de la dose de radiation a toujours été un objectif, réalisée en réduisant le courant et/ou la tension du tube à rayons X, en utilisant des vues éparses ainsi qu’en limitant l’angle de balayage. Cependant, ces protocoles d’imagerie peuvent entraîner des données endommagées et des reconstructions instables, donnant des images de mauvaise qualité lorsqu’on utilise des algorithmes FBP classiques. Ainsi, le développement de nouveaux algorithmes de haute qualité, surtout en LDCT, est devenu un besoin urgent.

Les méthodes traditionnelles peuvent être classées en trois catégories : les méthodes de correction basées sur la projection, les méthodes de reconstruction basées sur l’image, et les algorithmes de reconstruction itérative. Les méthodes basées sur la projection combinent les caractéristiques statistiques du bruit mesuré et les connaissances a priori pour réduire le bruit, puis utilisent FBP pour reconstruire les données de projection obtenues. Les méthodes de reconstruction basées sur l’image utilisent les informations a priori du domaine image pour traiter les artefacts et le bruit sur l’image reconstruite. Les algorithmes de reconstruction itérative construisent une fonction objectif en combinant les caractéristiques statistiques du bruit mesuré et les informations a priori des images CT, et obtiennent des images CT de haute qualité par optimisation itérative. Cependant, choisir une régularisation et des hyperparamètres appropriés est très difficile, et les algorithmes itératifs sont souvent coûteux en calcul en raison des projections avant et arrière répétées, limitant leur application clinique.

Ces dernières années, la technologie de reconstruction CT s’est concentrée sur les méthodes de deep learning, en particulier les stratégies de deep learning basées sur les données et sur les modèles. Ces stratégies utilisent des données d’entraînement appariées pour apprendre une transformation non linéaire des mesures bruitées ou des images vers les images cibles. Bien que ces méthodes soient prometteuses en termes de coût de calcul et d’application, leurs sorties peuvent manquer de cohérence de données, nécessitant une grande quantité de données d’entraînement cliniques.

Origine de la recherche

Cette étude intitulée “Noise-Generating and Imaging Mechanism Inspired Implicit Regularization Learning Network for Low Dose CT Reconstruction” a été publiée dans le journal IEEE Transactions on Medical Imaging, volume 43, numéro 5, en mai 2024. Les auteurs incluent Xing Li, Kaili Jing, Yan Yang, Yongbo Wang, Jianhua Ma, Hairong Zheng, et Zongben Xu, affiliés à Xi’an Jiaotong University, University of Ottawa, Southern Medical University, Shenzhen Institute of Advanced Technology, et d’autres institutions de recherche.

Méthodologie de recherche

Cet article propose un nouveau modèle de reconstruction LDCT basé sur la génération de bruit global et le mécanisme d’imagerie, intégrant les caractéristiques statistiques du bruit intrinsec au LDCT ainsi que les informations a priori dans les domaines image et sinogramme. Ce modèle est résolu par un algorithme d’optimisation basé sur la technique de gradient de proximité, détaillé comme suit :

Construction du modèle

  1. Définition du modèle génératif :

    • Les données de projection ( s ) contiennent généralement du bruit, et nous définissons le modèle génératif comme suit :[ s = t + \epsilon ]
    • Où ( t ) représente la quantité de rayons détectée par le détecteur, suivant une distribution de Poisson ; ( \epsilon ) est le bruit électronique, suivant une distribution gaussienne.
  2. Transformation du problème d’optimisation :

    • Basé sur la théorie de l’estimation maximale a posteriori (MAP), trouver les données de projection propres ( y ). Ajoutez ensuite les contraintes de fidélité des données de l’image CT reconstruite ( x ) ainsi qu’une régularisation suffisante dans les domaines sinogramme et image, le problème d’optimisation est formulé comme suit :[ \min{t,y,x} \sum{i=1}^n \left( (s_i - t_i )^2 / 2\sigma^2 - t_i \ln I_0 + t_i y_i + \ln t_i! + I_0 e^{-y_i} \right) + \lambda_1 g_1(y) + \lambda_2 g_2(x) + |Ax - y|_2^2 / 2 ]

Optimisation du modèle

En utilisant la mise à jour alternative des données dans les domaines projection, sinogramme et image, les étapes sont les suivantes :

  1. Mise à jour des données de projection ( t ) :

    • Résoudre le problème de paramètre de distribution de Poisson composite, en utilisant la relaxation continue du problème, et mettre à jour les données de projection en utilisant la méthode de Newton.
  2. Mise à jour des données sinogrammes ( y ) :

    • Minimiser la fonction objectif approximative du second ordre, et la formule de mise à jour ( y ) est donnée par :[ y^{(n)} = \textrm{prox}_{\lambda_1 \eta_2}(y^{(n-1)} - \eta_2 \nabla f(y^{(n-1)})) ]
  3. Mise à jour de l’image CT ( x ) :

    • De même, minimiser la fonction objectif du second ordre, et la formule de mise à jour ( x ) est :[ x^{(n)} = \textrm{prox}_{\lambda_2 \eta_3}(x^{(n-1)} - \eta_3 \nabla f(x^{(n-1)})) ]

Structure du réseau

Nous étendons l’algorithme à un réseau profond en déroulant chaque étape de l’itération, et construisons une architecture de réseau nommée NGIM-IRL, comprenant les trois modules suivants :

  1. T-Net : Résout le sous-problème et met à jour les données de projection.
  2. Y-Net : Résout le problème de restauration des données sinogrammes.
  3. X-Net : Résout le problème de restauration de l’image CT.

Cette structure de réseau apprend implicitement les opérateurs de régularisation correspondants dans les domaines sinogramme et image à travers deux réseaux neuronaux profonds, améliorant l’explicabilité et l’efficacité du processus de reconstruction.

Résultats de la recherche

Cette méthode a montré des performances supérieures sur plusieurs ensembles de données.

Ensembles de données et configuration des expériences

Nous avons utilisé les données d’images de tomodensitométrie corporelle complète du Mayo Clinic, ainsi que le dataset Lodopab-CT pour les expériences, simulant diverses images à faible dose.

Résultats expérimentaux

Les résultats montrent qu’à différents niveaux de dose, comparé aux méthodes traditionnelles et autres méthodes basées sur le deep learning, NGIM-IRL excelle en termes de rapport signal-bruit de crête, de mesure de similarité structurelle et d’erreur quadratique moyenne. Les détails sont les suivants :

  1. Ensemble de données de défi en CT à faible dose : À trois niveaux de dose, cette méthode a montré la meilleure qualité d’image et un faible niveau d’artefacts.
  2. Ensemble de données Lodopab-CT : Cette méthode a surpassé significativement les autres méthodes comparatives sur les indicateurs quantitatifs, démontrant sa bonne adaptabilité et robustesse dans les tâches de reconstruction de CT à faible dose.

Formation et efficacité d’exécution du réseau

Comparé aux autres méthodes itératives de deep learning, le temps de formation du NGIM-IRL est plus court, et le temps d’exécution est également réduit, ce qui est particulièrement important dans les applications cliniques.

Signification de la recherche

  1. Signification scientifique : Cette recherche propose un nouveau modèle basé sur la génération de bruit et le mécanisme d’imagerie, améliorant la théorie et la pratique de la reconstruction LDCT, comblant le fossé entre les méthodes traditionnelles et celles basées uniquement sur l’apprentissage automatique.
  2. Valeur d’application : Cette méthode montre des avantages notables en termes de réduction des coûts de calcul et d’amélioration de la qualité des images, présentant un potentiel significatif pour les applications cliniques.

En somme, la méthode NGIM-IRL proposée dans cet article surpasse les méthodes existantes sur plusieurs indicateurs quantitatifs, et montre également des avantages notables en termes de qualité d’image réelle et d’efficacité d’exécution, fournissant de nouvelles solutions et directions de recherche pour le domaine de la reconstruction LDCT. Les équipes de recherche continueront à explorer l’extension de cette méthode à la tomodensitométrie par comptage de photons et à la tomodensitométrie spectrale, afin de renforcer encore sa valeur pour les applications cliniques.