Concernant la question du titre: catégoriquement, non. Dans votre cas, pas assez d'informations, d'où mon commentaire et mon vote négatif. En outre, l'OMI, les questions qui combinent la signification statistique et pratique ont été traitées à moitié mortes ici, et vous n'en avez pas assez dit pour rendre votre question unique. Veuillez modifier; Je vais annuler mon vote négatif si je vois une amélioration (c'est verrouillé maintenant), et probablement mon vote positif si c'est substantiel. Votre question porte sur une idée fausse courante et importante qui mérite d'être menée jusqu'à la mort, mais telle quelle, il est difficile de dire quoi que ce soit de nouveau sur votre situation qui en ferait un exemple utile.
D'un point de vue statistique, l'intervention a-t-elle échoué, et sinon, que peut-on faire de plus?
Encore une fois, qu'avez-vous fait jusqu'à présent? Il est également fort possible que votre analyse ait échoué, pour emprunter votre terme (IMO, «failed» est clairement trop sévère dans les deux cas). C'est pourquoi j'ai posé des questions sur votre test. Les options d'analyse pré-post-traitement sont assez controversées, et l'échantillonnage aléatoire ou son absence est pertinent pour le choix des options analytiques (voir " Bonnes pratiques lors de l'analyse des modèles de contrôle pré-post-traitement") . C'est pourquoi j'ai posé une question sur un groupe de contrôle.
Si votre choix de test peut être amélioré, faites-le (évidemment). En plus de vérifier vos données (comme @MattKrause suggéré judicieusement), vérifiez les hypothèses de votre test. Il y en a beaucoup dans les conceptions pré-post habituelles, et elles sont souvent violées.
- Les distributions normales sont probablement des modèles médiocres, en particulier pour les scores de changement et les données financières. Envisagez des analyses non paramétriques.
- L'hétéroscédasticité est courante, surtout sans sélection aléatoire ou avec une intervention partiellement stochastique. Certains tests y sont plus sensibles que d'autres, en particulier les tests conventionnels.
- L'ANCOVA conventionnelle ne suppose aucune interaction entre les interventions et les covariables. Si le revenu de base affecte la viabilité de l'intervention, vous devriez probablement utiliser la régression modérée à la place $ (\ text {Revenu final = Revenu de base + Intervention? + Interaction + Erreur} $, en gros), en supposant que vous ayez un groupe témoin. Sinon, avez-vous plus de 2 fois?
Quelles autres informations avez-vous sur vos individus? Explorer les covariables et les modérateurs est un bon moyen de réduire la quantité de «bruit» statistique (erreur) que le «signal» (effet) de votre intervention doit submerger pour que votre test le «détecte» (supporte le rejet du nul). Si vous pouvez expliquer beaucoup de variance par des moyens autres que votre intervention, ou expliquer pourquoi votre intervention n'affecte pas tout le monde de la même manière, vous pourriez avoir une meilleure idée de l'ampleur réelle de l'effet de votre intervention, toutes choses étant égales par ailleurs - ce qui est rarement l'état par défaut de la nature. Je crois que c'était l'esprit de la suggestion n ° 2 de Matt.
Concernant sa mise en garde, n'ayez pas peur d'explorer les covariables et les modérateurs que vous n'avez pas spécifiés à l'avance; adoptez simplement un état d'esprit exploratoire et reconnaissez explicitement cette transition épistémologique dans tout rapport que vous publiez. Le point crucial qu'il convient de répéter sur la signification statistique et pratique est que leur chevauchement est généralement limité. La signification pratique de la signification statistique réside dans ce que vous comptez en faire. Si vous recherchez des preuves pour soutenir des recherches ultérieures (par exemple, pour une subvention de recherche), le rejet des hypothèses exploratoires peut suffire. AFAIK, c'est le seul type de signification pratique que la signification statistique est supposée impliquer par défaut, et explique le choix de la terminologie historiquement: significative suffisamment pour justifier plus de recherche .
Si vous recherchez un point de vue statistique sur la valeur de votre intervention, vous posez probablement la mauvaise question. La signification statistique ne vise pas à répondre à cela par elle-même; il ne représente directement qu'une réponse à une question très spécifique sur une hypothèse nulle. Je suppose que cela équivaut à une autre suggestion: vérifiez votre hypothèse nulle. Il indique généralement par défaut que l'effet observé dans votre échantillon est entièrement dû à une erreur d'échantillonnage (c.-à-d. Effet de l'intervention = 0). Êtes-vous vraiment intéressé par quelque changement que ce soit? Dans quelle mesure en avez-vous besoin pour justifier l'intervention? Ces questions décident en partie de la nullité appropriée; vous devez y répondre.
Lors des tests de confirmation, vous devez répondre à l'avance. Puisque vous avez déjà exécuté un test, tout nouveau test du même type avec différentes hypothèses nulles mais le même échantillon serait exploratoire. À moins que vous ne puissiez collecter un autre échantillon, il serait probablement préférable de considérer les autres types de tests comme exploratoires également. Le sens strict du test d'hypothèse de confirmation est particulièrement strict à propos de la règle du "non-regard"; OMI, c'est une faiblesse du paradigme de test d'hypothèse dans son ensemble. AFAIK, l'analyse bayésienne peut être un peu moins stricte à ce sujet, et pourrait vous être particulièrement utile si vous pouvez collecter plus de données, car votre résultat actuel pourrait aider à informer votre distribution de probabilité antérieure.
Une autre façon d'aborder le problème consiste à se concentrer sur la taille de l'effet et votre intervalle de confiance. $ 2K est un changement dans la direction que vous vouliez, non? Si les résultats de votre test signifiaient ce que je pense que vous pensez qu'ils signifiaient, alors il y a plus de 5% de chances que vous trouviez un changement négatif si vous deviez répéter l'étude, en supposant que l'intervention n'a eu aucun effet. Si votre investissement a eu un effet positif, la probabilité est inférieure à votre valeur p . Si vous êtes suffisamment investi dans la perspective du traitement, vous devriez peut-être reproduire l'étude. Encore une fois, vous savez mieux que moi ce qui affecte cette décision.
P.S. Malgré mon intro, j'ai réussi à en dire beaucoup sur ce sujet "à moitié mort". J'espère avoir fourni un résumé utile d'idées autres que celles des réponses préexistantes, mais je ne serais pas surpris si une grande partie de cela ne vous est pas très utile personnellement. Une grande raison pour laquelle je voulais plus d'informations est que répondre correctement à une question vague nécessite pratiquement de couvrir beaucoup de bases inutiles, ce qui est une sorte de perte de temps. Néanmoins, si vous nous gratifiez d'une modification, je sous-entendrai probablement ce qui ne s'applique plus, et je pourrais développer ce qui continue de fonctionner. Il est évident d'après les vues entrantes que la question résonne avec le public ici, donc cela pourrait devenir une question très utile avec un peu plus de travail.