利用深度学习增强视觉步态分析中的跌倒风险评估

引言

跌倒事件在多个临床人群中普遍存在,通常的风险评估包括对个体步态进行视觉观察。然而,对步态的观察评估通常局限在实验室内对个体进行规范的步行协议测试,以识别可能增加跌倒风险的缺陷,但微妙的缺陷可能不易被观察到。为此,客观方法(例如惯性测量单元,IMUs)对于定量分析高分辨率的步态特征是有用的,这有助于通过捕捉细微差别来提高跌倒风险评估的信息量。然而,仅依赖IMU的步态仪器化分析存在局限性,它没有考虑到参与者的行为以及环境中的细节(例如障碍物)。视频眼动仪可能提供了评估跌倒风险的额外见解,通过记录头部和眼睛的运动,可以了解人们基于头部和眼睛的动作来遍历环境的方式。但是,手动评估视频数据以评估头部和眼睛的动作既耗时又具有主观性。因此,迫切需要自动化的方法,但目前尚不存在。本文提出了一种基于深度学习的目标检测算法VARFA,以在步行期间仪器化视觉和视频数据,补充仪器化步态。

论文来源

本研究由Jason Moore、Robert Catena、Lisa Fournier、Pegah Jamali、Peter McMeekin、Samuel Stuart、Richard Walker、Thomas Salisbury和Alan Godfrey共同进行。研究来自以下机构:北安普顿大学、华盛顿州立大学、苏塞克斯南泰恩赛德NHS基金会信托,*通信作者为Alan Godfrey。论文发表在《Journal of Neuroengineering and Rehabilitation》2024年第21卷,编号106,研究为开放获取,根据Creative Commons Attribution 4.0国际许可证发布。

研究方法

本研究选择了20位健康的孕妇作为研究对象,利用眼动仪捕捉环境/实验室视频数据,并结合了步态分析。提出的VARFA算法利用YOLOv8模型训练了一个特定于实验室环境的新颖数据集。研究自动标记眼动仪拍摄的视频数据,并评估视觉注意力和环境细节。根据MAP50(平均准确率50%)的评价,VARFA实现了极高的评价指标(0.93 MAP50),且能够达到实时处理的速度,显示其在现实应用中的效率和有效性。

研究结果

VARFA在检测和定位静止物体(例如步行路径中的障碍物)方面的平均准确率达到93%。类似地,基于U-Net的轨迹/路径分割模型达到了良好的评价指标(交并比0.82),表明预测的行走轨迹与实际轨迹紧密对齐。

研究结论

仪器化视觉分析改进了跌倒风险评估的效率和准确性,通过评估导航期间视觉注意力的分配(即人在何时何地关注的信息),增加了该领域仪器化的广度。VARFA在仪器化视觉方面的应用,有望通过补充步态任务中的行为和环境数据,以更好地通知跌倒风险评估。

研究亮点

该研究的亮点包括开发了全新的仪器化方法,将视觉关注和视觉处理自动化。VARFA算法在实验室环境中的验证显示出了审查效率和对细节的捕捉能力,这有助于评估跌倒风险,对于改进恢复方法来说具有显著意义。此外,研究还提供了在每日生活中应用仪器化视觉以评估老年人和行动障碍者跌倒风险的新方向。