Je ne pense pas que l’objection porte uniquement sur le terme «statistiquement significatif», mais sur l’abus de tout le concept de test de signification statistique et sur l’interprétation erronée de résultats qui sont (ou ne sont pas) ) statistiquement significatif.
En particulier, regardez ces six déclarations:
- Les valeurs P peuvent indiquer à quel point les données sont incompatibles avec un modèle statistique spécifié.
- Les valeurs P ne mesurent pas la probabilité que l'hypothèse étudiée soit vraie, ni la probabilité que les données aient été produites par
le hasard seul.
- Les conclusions scientifiques et les décisions commerciales ou politiques ne doivent pas être basées uniquement sur le fait qu'une valeur p dépasse un seuil spécifique.
- Une inférence correcte nécessite des rapports et une transparence complets.
- Une valeur p, ou signification statistique, ne mesure pas la taille d'un effet ou l'importance d'un résultat.
- En soi, une valeur p ne fournit pas une bonne mesure des preuves concernant un modèle ou une hypothèse.
Ainsi, ils recommandent une manière plus complète de faire et de rapporter l'analyse que simplement donner une valeur p, ou même une valeur p avec un CI. Je pense que c'est sage et je ne pense pas que cela devrait être controversé.
Maintenant, passant de leur déclaration à mes propres opinions, je dirais que nous ne devrions souvent pas du tout mentionner la valeur p. Dans de nombreux cas, il ne fournit pas d'informations utiles. Presque toujours, nous savons à l'avance que la valeur nulle n'est pas exactement vraie et, bien souvent, nous savons qu'elle n'est même pas proche de la vérité.
Que faire à la place? Je recommande vivement les critères MAGIC de Robert Abelson: magnitude, articulation, généralité, intérêt et crédibilité. J'en dis beaucoup plus à ce sujet dans mon article de blog: Statistiques 101: les critères MAGIC.
(Mes opinions, contrairement à celles de l'ASA, sont controversées. Beaucoup de gens ne sont pas d'accord avec elles).