Une Mesure de la Convergence de la Fiabilité pour Sélectionner et Optimiser les Tâches Cognitives pour la Recherche sur les Différences Individuelles

Rapport académique

Contexte de recherche

Ces dernières années, l’intérêt pour les différences individuelles (individual differences) s’est accru dans les domaines de la psychologie et des neurosciences cognitives. Cependant, de nombreuses études sont confrontées à une crise de réplication, particulièrement manifeste dans les recherches explorant les corrélations cerveau-comportement (brain-behavior correlations). Un élément clé pour la réplication des études sur les différences individuelles est la fiabilité des méthodes de mesure utilisées, un aspect souvent supposé plutôt que directement vérifié. Cette étude vise à évaluer la fiabilité de différentes tâches cognitives, en particulier sur un ensemble de données de tâches multi-jours impliquant plus de 250 participants, afin d’explorer leur applicabilité dans les études sur les différences individuelles.

Source du document

Cet article a été rédigé par Jan Kadlec, Catherine R. Walsh, Uri Sade, Ariel Amir, Jesse Rissman et Michal Ramot, provenant respectivement du Weizmann Institute of Science et de l’University of California, Los Angeles. L’article a été publié dans le journal “Communications Psychology” en 2024.

Détails de la recherche

Processus de recherche

Cette étude implique plusieurs étapes, comprenant 14 tâches cognitives différentes, pour évaluer leur fiabilité et leur stabilité dans la recherche sur les différences individuelles. L’ensemble de données provient de plus de 250 participants qui ont chacun effectué un ensemble de tâches sur plusieurs jours.

Conception des tâches et collecte de données

  1. Types de tâches : L’étude a sélectionné 12 tâches cognitives couramment utilisées et 2 nouvelles tâches développées, couvrant au total 21 mesures comportementales différentes. Ces tâches couvrent plusieurs domaines cognitifs, notamment la mémoire de travail, la mémoire des objets, la mémoire des visages, la cognition sociale, etc.
  2. Processus de collecte de données : Toutes les données ont été collectées en ligne, les participants étant recrutés via la plateforme Prolific. La collecte initiale des données s’est déroulée sur 3-4 jours, avec une augmentation ultérieure des types de tâches pour une validation supplémentaire de la fiabilité.

Analyse de fiabilité

  1. Cohérence interne : La fiabilité a été calculée en utilisant une méthode de split-halves basée sur la permutation, répétée 1000 fois pour obtenir des résultats stables.
  2. Conception expérimentale : La fiabilité a été testée pour chaque mesure comportementale, incluant les données des tâches sur plusieurs échelles temporelles, validant davantage l’effet des mesures sur plusieurs jours.

Développement de nouvelles tâches et outils

  1. Nouvelles tâches : Deux nouvelles tâches ont été développées : Personal Identity Memory Task et Face Memory/Perception Task.
  2. Simulation et validation théorique : Le modèle d’analyse a été validé par des simulations à grande échelle et des données comportementales réelles, prédisant les erreurs potentielles dans les données de petits échantillons.
  3. Outil en ligne : Un outil en ligne convivial a été développé sur la base du modèle d’analyse pour calculer la fiabilité de tout ensemble de données donné, aidant les chercheurs à mieux concevoir les tâches comportementales.

Principaux résultats

  1. Mesure de fiabilité : Les courbes de fiabilité split-half de nombreuses tâches montrent une amélioration significative de la fiabilité avec l’augmentation du nombre d’essais.
  2. Analyse d’utilité : La vitesse de convergence de la fiabilité varie considérablement entre les différentes tâches, indiquant que certaines tâches sont plus adaptées à l’étude des différences individuelles. En particulier, le Cambridge Face Memory Test a montré une fiabilité plus élevée dans la mesure des différences individuelles.
  3. Effets temporels : L’étendue temporelle a un impact significatif sur la fiabilité de certaines tâches, en particulier les tâches d’attention et de mémoire, suggérant que cet effet devrait être pris en compte dans les mesures transtemporelles.
  4. Recommandations et outils : Un outil en ligne est fourni pour estimer le nombre d’essais et de participants nécessaires dans la conception de l’étude, assurant que le niveau de fiabilité attendu soit atteint avant la collecte des données.

Conclusion et signification

Les conclusions de cette étude indiquent que de nombreuses tâches largement utilisées en psychologie et en neurosciences cognitives nécessitent une réévaluation de leur fiabilité dans les études sur les différences individuelles. En optimisant scientifiquement la collecte de données et la conception des tâches, une meilleure qualité de données peut être obtenue dans la recherche sur les différences individuelles. La méthode d’analyse proposée dans cette étude non seulement valide la fiabilité des tâches, mais fournit également des outils pratiques pour la conception de nouvelles recherches.