歩行中の視覚のディープラーニングを用いた転倒リスク評価の強化

はじめに

転倒事故は複数の臨床群で一般的であり、通常のリスク評価には個人の歩行の視覚的観察が含まれます。しかし、歩行の観察評価は通常、転倒リスクを増加させる可能性のある欠陥を特定するために、実験室内で個人に標準化された歩行プロトコルテストを行うことに限定されており、微妙な欠陥は観察されにくい可能性があります。そのため、客観的な方法(例えば慣性計測ユニット、IMUs)は、高解像度の歩行特性を定量的に分析するのに有用であり、微妙な違いを捉えることで転倒リスク評価の情報量を向上させるのに役立ちます。しかし、IMUのみに依存した歩行の器械化分析には限界があり、参加者の行動や環境の詳細(例えば障害物)を考慮していません。ビデオアイトラッカーは、頭部と目の動きを記録することで、人々が頭部と目の動きに基づいて環境をナビゲートする方法を理解することができ、転倒リスク評価に追加の洞察を提供する可能性があります。しかし、頭部と目の動きを評価するためにビデオデータを手動で評価することは、時間がかかり主観的です。したがって、自動化された方法が緊急に必要とされていますが、現在のところ存在していません。本論文では、歩行中の視覚とビデオデータを器械化するための深層学習ベースの物体検出アルゴリズムVARFAを提案し、器械化された歩行を補完します。

論文の出典

この研究はJason Moore、Robert Catena、Lisa Fournier、Pegah Jamali、Peter McMeekin、Samuel Stuart、Richard Walker、Thomas Salisbury、Alan Godfreyによって共同で実施されました。研究は以下の機関から行われました:ノーサンプトン大学、ワシントン州立大学、サウス・タインサイドNHS財団トラスト、*連絡著者はAlan Godfreyです。論文は「Journal of Neuroengineering and Rehabilitation」2024年第21巻、番号106に掲載され、研究はオープンアクセスで、クリエイティブ・コモンズ表示4.0国際ライセンスの下で公開されています。

研究方法

本研究では、20名の健康な妊婦を研究対象として選び、アイトラッカーを使用して環境/実験室のビデオデータを捕捉し、歩行分析と組み合わせました。提案されたVARFAアルゴリズムは、YOLOv8モデルを使用して実験室環境に特化した新しいデータセットをトレーニングしました。研究では、アイトラッカーで撮影されたビデオデータを自動的にラベル付けし、視覚的注意と環境の詳細を評価しました。MAP50(平均精度50%)の評価に基づき、VARFAは非常に高い評価指標(0.93 MAP50)を達成し、リアルタイム処理の速度に到達できることを示し、実際のアプリケーションにおける効率性と有効性を示しました。

研究結果

VARFAは静止物体(例えば歩行経路の障害物)の検出と位置特定において93%の平均精度を達成しました。同様に、U-Netベースの軌跡/経路セグメンテーションモデルは良好な評価指標(IoU 0.82)を達成し、予測された歩行軌跡が実際の軌跡と密接に一致していることを示しました。

研究結論

器械化された視覚分析は、転倒リスク評価の効率性と正確性を向上させ、ナビゲーション中の視覚的注意の配分(つまり、人がいつどこで何に注目しているか)を評価することで、この分野の器械化の幅を広げました。VARFAの器械化された視覚への応用は、歩行タスク中の行動と環境データを補完することで、転倒リスク評価をより良く通知することが期待されます。

研究のハイライト

この研究のハイライトには、視覚的注意と視覚処理を自動化する全く新しい器械化方法の開発が含まれます。VARFAアルゴリズムの実験室環境での検証は、詳細を捉える能力と審査効率を示し、これは転倒リスクの評価に役立ち、回復方法の改善に大きな意義があります。さらに、この研究は、高齢者や運動障害者の転倒リスクを評価するために、日常生活において器械化された視覚を適用する新しい方向性を提供しています。