Une Interface Cerveau-Ordinateur Intersubjects Basée sur l'Entraînement Adversarial de Réseau Neuronal Convolutionnel pour le Décodage de l'Attention en Ligne

Interface Cerveau-Machine Inter-Sujets : Décodage de l’Attention en Temps Réel Basé sur l’Entraînement Antagoniste de Domaine avec Réseaux Neuronaux Convolutifs

Contexte Académique

Le décodage de l’attention joue un rôle crucial dans notre vie quotidienne, et sa mise en œuvre basée sur l’électroencéphalogramme (EEG) a suscité une large attention. Cependant, en raison des différences significatives des signaux EEG entre les individus, il n’est pas envisageable de former un modèle universel pour chaque personne en pratique. Par conséquent, cet article propose un cadre d’interface cerveau-machine (ICM) de bout en bout visant à résoudre ce défi, en utilisant notamment des réseaux neuronaux convolutifs unidimensionnels temporels et spatiaux (1D CNN) et des stratégies d’entraînement antagoniste de domaine (Domain-Adversarial Training). Modèle de réseau neuronal convolutif conçu dans cette étude

Les méthodes traditionnelles de décodage de l’attention reposent généralement sur des techniques de classification de caractéristiques et de modèles pré-définis, telles que l’analyse discriminante linéaire (LDA) et les machines à vecteurs de support (SVM). Cependant, ces méthodes montrent des limites lorsqu’il s’agit de traiter des données inter-sujets. En outre, bien que les méthodes d’apprentissage profond montrent des performances de classification exceptionnelles, comment gérer les différences significatives des signaux EEG entre individus reste un défi.

Article et Source

Cet article est rédigé par Dichen, Haiyun Huang, Zijing Guan, Jiahui Pan et Yuanqing Li, auteurs provenant de l’école de logiciel de l’Université des Sciences et Technologies du Sud de Chine, de l’Université Normale de Chine du Sud, et du comité d’éthique de l’Hôpital Affilié de l’Université Médicale de Guangzhou. L’article est publié dans le journal IEEE Transactions on Biomedical Engineering, avec le doi spécifique 10.1109/tbme.2024.3404131.

Processus et Méthodes de Recherche

Processus de Recherche

La recherche comporte plusieurs étapes, allant de la représentation des données EEG brutes à la prédiction des étiquettes de tâche et au classificateur de domaine, pour finalement obtenir les résultats de décodage. Les méthodes et outils impliqués dans le cadre sont les suivants :

  1. Représentation EEG : Entrée des données EEG brutes, chaque échantillon étant représenté par une matrice contenant le nombre de canaux et les points d’échantillonnage temporel.
  2. Extracteur de Caractéristiques : Utilisation de blocs de convolution temporelle, de convolution spatiale et de convolution séparables pour extraire respectivement les caractéristiques temporelles, spatiales et combinées.
  3. Prédicteur d’Étiquettes de Tâche : Un vecteur de caractéristiques est entré dans une couche entièrement connectée pour réaliser la prédiction des étiquettes de tâche.
  4. Classificateur de Domaine : Utilisation d’une couche spéciale de renversement de gradient (GRL) pendant l’entraînement pour aligner les caractéristiques entre différents domaines en inversant le gradient.

Étapes d’Extraction des Caractéristiques

  1. Bloc de Convolution Temporelle : Réalisation de convolutions 1D sur le signal EEG et de la normalisation par lots, pour extraire les caractéristiques temporelles.
  2. Bloc de Convolution Spatiale : Convolution sur tous les canaux pour extraire les caractéristiques spatiales, suivi de la normalisation par lots et de la mise en commun moyenne.
  3. Bloc de Convolution Séparable : Combinaison de convolution profonde et de convolution 1D, extraction efficace des caractéristiques temporelles les plus pertinentes, suivie par une couche de mise en commun moyenne et une couche d’aplatissement pour compresser les caractéristiques.

Fonction d’Optimisation

L’article propose l’utilisation de la combinaison des pertes de tâche et de domaine pour optimiser les paramètres du modèle, avec les formules suivantes :

[ L_i^y(\theta_f, \theta_y) = L_y(g_y(g_f(x_i; \theta_f); \theta_y), y_i) ]

[ L_i^d(\theta_f, \theta_d) = L_d(g_d(g_f(x_i; \theta_f); \theta_d), d_i) ]

[ E(\theta_f, \theta_y, \thetad) = \frac{1}{n} \sum{i=1}^n L_i^y(\theta_f, \thetay) - \lambda \left(\frac{1}{n} \sum{i=1}^n L_i^d(\theta_f, \thetad) + \frac{1}{n’} \sum{i=n+1}^{n+n’} L_i^d(\theta_f, \theta_d) \right) ]

L’objectif d’optimisation est de trouver le point de selle de $\theta_f, \theta_y$ et $\theta_d$, en utilisant la méthode de descente de gradient pour réaliser l’entraînement et l’optimisation complète du modèle.

Résultats de la Recherche

Expérimentation Hors Ligne

Dans les expérimentations hors ligne, des données de 85 sujets ont été analysées à travers une validation croisée. Les résultats montrent que l’exactitude de DA-TSNet est de 89.40% ± 9.96%, nettement supérieure à celle de cinq autres méthodes de référence (par exemple, PSD-SVM à 75.24%, TFN-SVM à 80.83%, et EEGNet à 84.09%). Les résultats des analyses statistiques sont également présentés avec une matrice de confusion pour valider les performances exceptionnelles de DA-TSNet dans les tâches de reconnaissance de l’attention.

Expérimentation Simulée en Ligne

Dans les expérimentations simulées en ligne, les données de nouveaux sujets ont été partitionnées et entraînées à travers différents nombres de segments d’essai initiaux (par exemple, 20, 40, 60, 80 et 100). Les résultats montrent qu’avec un nombre plus élevé de segments d’essai, l’exactitude de DA-TSNet est supérieure à celle des autres méthodes, et dans une configuration de partition de données 6060, l’exactitude de DA-TSNet est de 88.07% ± 11.22%.

Expérimentation Réelle en Ligne

Dans les expérimentations réelles en ligne, des amplificateurs Neuroscan à 32 canaux et 22 sujets ont été utilisés pour les tests. Les résultats montrent que l’exactitude de DA-TSNet dans les deux expériences (86.44% ± 13.28% et 89.02% ± 9.58%) est nettement supérieure à celle de TSNet (75.15% ± 13.04%), démontrant la valeur pratique de DA-TSNet dans le décodage de l’attention en ligne.

Conclusion et Perspectives

Le cadre DA-TSNet proposé dans cet article résout efficacement les différences significatives des signaux EEG entre individus, augmentant de manière significative l’exactitude et l’efficacité du décodage de l’attention. Les expérimentations hors ligne et en ligne ont validé ses performances et son utilité, en particulier dans les tâches de décodage de l’attention inter-sujets, montrant une forte adaptabilité et stabilité. La recherche future visera à optimiser davantage la structure du classificateur de domaine, à réduire la taille du modèle et à explorer l’effet des intervalles de temps dans des expérimentations de longue durée. En résumé, DA-TSNet offre une méthode innovante et efficace pour le décodage de l’attention et son application en ligne.