vendredi 10 février 2017

IRM fonctionnelle : trop de faux positifs ?

L'imagerie par résonance magnétique fonctionnelle (IRMf) a révolutionné les neurosciences en une vingtaine d'années. Fondée sur la modification des propriétés magnétiques des tissus liée à l’apport d’oxygène par le sang, cette méthode d'imagerie cérébrale permet d’identifier les régions du cerveau où le flux sanguin augmente, c'est-à-dire celles qui sont en activité. Il est alors possible d'associer ces zones aux pensées du patient.
Une étude dirigée par Anders Eklund, de l'université de Linköping en Suède, remet cependant en question les résultats de milliers d'articles utilisant cette technologie : les principales méthodes de traitement des données d'IRMf utilisées sous-estimeraient largement le risque de faux-positifs.

Malgré la présentation des résultats sous forme visuelle très évocatrice, l'obtention d'une carte en 3D des zones actives du cerveau nécessite des traitements statistiques complexes pour extraire les signaux pertinents du « bruit » lié au fonctionnement cérébral au repos. Ces traitements consistent tout d'abord à produire une hypothèse sur l'activité de chaque unité spatiale du cerveau (appelée voxel), en comparant le profil statistique des valeurs expérimentales à celui des valeurs simulées correspondantes au cerveau inactif. Les voxels sont ensuite regroupés en structures plus larges – des clusters – qui sont également comparés aux structures similaires au repos. Les résultats sont alors présentés avec une tolérance maximale de 5 % de faux positifs.
Anders Eklund et ses collègues ont testé les trois logiciels d'IRMf utilisés dans les laboratoires de neuroscience à l'aide de données issues du Human Connectome Project initié par les Instituts de santé américains (NIH). Ils ont tout d'abord compilé les données d'IRMf de groupes de 20 volontaires, choisis aléatoirement parmi 499 patients sains dont l'examen a été réalisé au repos. Puis ils ont comparé deux à deux les résultats de chaque groupe, réalisant ainsi plus de 3 millions de comparaisons. Alors qu'ils n'auraient pas dû trouver de différences au-delà des 5 % de marge d'erreur tolérée, ce sont jusqu'à 70 % de différences significatives qui ont été mises en évidence entre des groupes pourtant constitués de sujets comparables, sains, et inactifs.
« Ces travaux remettent en avant la question des méthodes statistiques et des inférences multiples utilisées en IRM fonctionnelle » explique Olivier Coulon, directeur de recherche à l'Institut de neuroscience de la Timone. « Les méthodes dites paramétriques actuellement utilisées se basent sur de nombreuses hypothèses qui n'ont jamais été totalement validées expérimentalement » précise-t-il. Ces méthodes présupposent en effet un modèle de répartition statistique des données obtenues pour chaque cluster qui ne semble pas correspondre à la réalité des mesures.
Afin de compléter cette étude, Anders Eklund a également testé des méthodes dites non paramétriques, qui permettent de ne pas inférer de modèle de répartition, mais nécessitent des calculs beaucoup plus lourds. Les résultats obtenus ont cette fois été concluants, en-deçà du seuil des 5 % de faux positifs.
Pour Olivier Coulon, « ces travaux nous poussent à maîtriser davantage les outils statistiques que nous utilisons et à nous tourner vers les méthodes non paramétriques, accessibles depuis peu grâce à l'augmentation de la puissance des ordinateurs ». D'après les auteurs de l'étude, il est vain de chercher à vérifier les résultats des milliers de travaux déjà menés à l'aide de ces logiciels défaillants, les données brutes n'ayant pas souvent été conservées. Par ailleurs, « les méta-analyses, qui compilent l'ensemble des articles portant sur un même sujet, ont déjà permis de séparer le bon grain de l'ivraie, c'est-à-dire les résultats confirmés par de nombreux travaux de ceux non reproductibles » conclut Olivier Coulon.

Les meilleurs articles jamais écrits !