Comprendre les résultats scientifiques, en 20 leçons

La revue Britannique Nature a publié le 21 novembre dernier (disponible sans restriction, en anglais), un article signé par trois scientifiques, deux de Cambridge et un Australien de Melbourne proposant vingt conseils pour interpréter les résultats de la science contemporaine. L’objectif annoncé est d’améliorer la compréhension des femmes et hommes politiques vis-à-vis des résultats scientifiques. Les décideurs politiques consultent régulièrement des experts et des conseillers, et doivent évaluer la qualité, les limites et les biais des résultats des études sur lesquels s’appuient les argumentaires qu’on leur présente. Pour les auteurs de ce travail, ces 20 conseils qu’ils prodiguent devraient faire partie de toute formation des hauts fonctionnaires, personnels politiques, mais aussi conseillers politiques et journalistes. J’ai eu entre 2008 et 2012 en charge la formation quasiment monopolistique en France des hauts fonctionnaires responsables du système de santé, à l’Ecole des Hautes Etudes en Santé Publique, et si nous avons tenté de généraliser une formation de fondamentaux pour tous les élèves, je pense que nous étions encore loin, lorsque j’ai quitté mes fonctions il y a un an, de l’ambition des auteurs de cet article auquel je renvoie les lecteurs plus particulièrement intéressés.

En effet, je ne développerai pas ici les 20 points sélectionnés dans l’article, mais je les listerai rapidement, tellement ils pourraient inspirer ceux qui souhaiteraient créer des formations pour les hauts profils en charge des affaires publiques :

1. Le monde réel varie de manière imprévisible

2. Aucune mesure n’est exacte

3. Les biais potentiels sont légions

4. Les grands effectifs sont généralement plus informatifs que les petites séries

5. Corrélation ne signifie pas relation causale

6. Le phénomène dit de “régression à la moyenne” conduit à des fausses interprétations

7. Les extrapolations au-delà des données présentées sont souvent hasardeuses

8. Méconnaissance de la prévalence dans l’application de tests de dépistage

9. L’importance des groupes témoins pour réaliser des évaluations

10. Le tirage au sort permet d’éviter les biais

11. Rechercher une authentique reproduction des résultats issus d’expériences (méta-analyses)

12. Les scientifiques sont des hommes et des femmes : ils ont leurs conflits d’intérêts, notamment ceux visant à promouvoir leurs propres recherches

13. Le seuil de significativité (P<0,05) d’un test statistique… signifie quelque chose !

14. Ne pas confondre l’absence de significativité avec l’absence d’effet

15. La taille d’un échantillon est importante dans la recherche d’une association

16. Attention aux généralisations faites à partir d’une étude

17. Comprendre les déterminants de la perception des risques

18. Les interrelations entre les événements modifient les risques

19. Il est dangereux (et commun) de recourir à l’utilisation de sous-ensembles de données pour appuyer des “démonstrations”

20. Les observations extrêmes éconduisent les jugements

Nous avons là pratiquement le programme d’une école d’été de formation des hauts cadres de l’Etat !

Nous avions essayé en 2011 à l’Académie Nationale de Médecine à Paris (rapport format pdf disponible, en français, sans restriction), de réaliser un exercice un peu similaire, mais restreint au champ de l’épidémiologie, il s’agissait d’une commande de l’Office Parlementaire d’Evaluation des Choix Scientifiques et Technologiques (OPECST).

Ces exercices semblent utiles, il est urgent de les mettre en place… il serait bien aussi de les évaluer !

 

Centre Virchow Wellermé

URL: http://virchowvillerme.eu/
Via un article de Antoine Flahault, publié le 29 janvier 2014

©© a-brest, article sous licence creative common info