Améliorer l'évaluation du risque de chute : instrumentation de la vision avec l'apprentissage profond pendant les marches

Introduction

Les chutes sont courantes dans plusieurs populations cliniques, et l’évaluation des risques comprend généralement une observation visuelle de la démarche individuelle. Cependant, l’évaluation observationnelle de la démarche est souvent limitée à des tests de protocoles de marche normalisés en laboratoire pour identifier les déficits susceptibles d’augmenter le risque de chute, mais les déficits subtils peuvent être difficiles à observer. À cette fin, des méthodes objectives (par exemple, les unités de mesure inertielle, IMU) sont utiles pour l’analyse quantitative des caractéristiques de la démarche à haute résolution, ce qui aide à améliorer l’information de l’évaluation du risque de chute en capturant les nuances. Cependant, l’analyse instrumentée de la démarche basée uniquement sur l’IMU présente des limitations, car elle ne tient pas compte du comportement du participant ni des détails de l’environnement (par exemple, les obstacles). Les oculomètres vidéo peuvent fournir des informations supplémentaires pour évaluer le risque de chute, en enregistrant les mouvements de la tête et des yeux pour comprendre comment les gens naviguent dans leur environnement en fonction des mouvements de la tête et des yeux. Cependant, l’évaluation manuelle des données vidéo pour évaluer les mouvements de la tête et des yeux prend du temps et est subjective. Par conséquent, il existe un besoin urgent de méthodes automatisées, mais elles n’existent pas actuellement. Cet article propose un algorithme de détection d’objets basé sur l’apprentissage profond appelé VARFA pour instrumenter les données visuelles et vidéo pendant la marche, complémentant ainsi la démarche instrumentée.

Source du document

Cette étude a été menée conjointement par Jason Moore, Robert Catena, Lisa Fournier, Pegah Jamali, Peter McMeekin, Samuel Stuart, Richard Walker, Thomas Salisbury et Alan Godfrey. L’étude provient des institutions suivantes : Université de Northumbria, Université d’État de Washington, South Tyneside and Sunderland NHS Foundation Trust, *l’auteur correspondant étant Alan Godfrey. L’article a été publié dans le Journal of Neuroengineering and Rehabilitation, volume 21, numéro 106, 2024, l’étude étant en accès libre, publiée sous la licence Creative Commons Attribution 4.0 International.

Méthodologie de recherche

Cette étude a sélectionné 20 femmes enceintes en bonne santé comme sujets de recherche, utilisant des oculomètres pour capturer des données vidéo environnementales/de laboratoire, combinées à une analyse de la démarche. L’algorithme VARFA proposé utilise le modèle YOLOv8 pour entraîner un nouvel ensemble de données spécifique à l’environnement de laboratoire. L’étude marque automatiquement les données vidéo capturées par l’oculomètre et évalue l’attention visuelle et les détails environnementaux. Selon l’évaluation MAP50 (précision moyenne à 50 %), VARFA a atteint des mesures d’évaluation extrêmement élevées (0,93 MAP50) et peut atteindre une vitesse de traitement en temps réel, démontrant son efficacité et son efficience dans les applications réelles.

Résultats de la recherche

VARFA a atteint une précision moyenne de 93 % dans la détection et la localisation d’objets stationnaires (par exemple, les obstacles sur le chemin de marche). De même, le modèle de segmentation de trajectoire/chemin basé sur U-Net a atteint de bonnes mesures d’évaluation (indice de Jaccard de 0,82), indiquant un alignement étroit entre les trajectoires de marche prédites et réelles.

Conclusion de la recherche

L’analyse visuelle instrumentée améliore l’efficacité et la précision de l’évaluation du risque de chute en évaluant la répartition de l’attention visuelle pendant la navigation (c’est-à-dire quand et où les gens prêtent attention aux informations), augmentant ainsi l’étendue de l’instrumentation dans ce domaine. L’application de VARFA dans l’instrumentation visuelle promet de mieux informer l’évaluation du risque de chute en complétant les données comportementales et environnementales dans les tâches de démarche.

Points saillants de la recherche

Les points saillants de cette étude incluent le développement d’une nouvelle méthode d’instrumentation pour automatiser l’attention visuelle et le traitement visuel. La validation de l’algorithme VARFA dans un environnement de laboratoire démontre son efficacité d’examen et sa capacité à capturer les détails, ce qui est utile pour évaluer le risque de chute et a une signification importante pour l’amélioration des méthodes de récupération. De plus, l’étude fournit de nouvelles directions pour l’application de l’instrumentation visuelle dans la vie quotidienne pour évaluer le risque de chute chez les personnes âgées et les personnes à mobilité réduite.