Question:
Variable aléatoire définie comme A avec 50% de chance et B avec 50% de chance
Bluefire
2018-08-28 00:11:08 UTC
view on stackexchange narkive permalink

Remarque: il s'agit d'un problème de devoirs alors ne me donnez pas toute la réponse!

J'ai deux variables, A et B, avec des distributions normales (les moyennes et les variances sont connues).Supposons que C soit défini comme A avec 50% de chance et B avec 50% de chance.Comment pourrais-je prouver si C est également distribué normalement et si oui, quelle est sa moyenne et sa variance?

Je ne sais pas comment combiner les PDF de A et B de cette façon, mais idéalement, si quelqu'un peut me diriger dans la bonne direction, mon plan d'attaque est de dériver le PDF de C et de montrer s'il est ou nonn'est pas une variante du PDF normal.

Voir peut-être [Wikipedia] (https://en.wikipedia.org/wiki/Mixture_distribution) sur «distribution de mélange».
Un graphique pourrait donner un bon indice pour savoir si $ C $ est normalement distribué.
Le traçage du PDF de quelques cas montre rapidement que $ C $ n'est généralement pas normal: il peut avoir deux modes.La partie amusante consiste à obtenir une caractérisation complète du moment où $ C $ * est * normalement distribué.
Je trouve toujours plus facile de travailler avec le CDF d'une variable aléatoire que le PDF.
Et comme indice, pensez à tirer quelqu'un au hasard dans la population composée de tous les bébés de moins d'un an et de tous les joueurs de la NBA.Vous attendez-vous à trouver quelqu'un qui mesure environ 1,80 mètre?
@BallpointBen, je pense, donne le meilleur conseil général pour aborder (analytiquement) ce type de problème (en combinant les distributions en quelque sorte) - à partir du CDF.PDF est utile pour aborder cela comme une simulation / explorer le problème de manière empirique.
Cinq réponses:
BruceET
2018-08-28 00:34:47 UTC
view on stackexchange narkive permalink

Simulation d'un mélange aléatoire 50-50 de $ \ mathsf {Norm} (\ mu = 90, \ sigma = 2) $ et $ \ mathsf {Norm} (\ mu = 100, \ sigma = 2) $ est illustré ci-dessous.Simulation en R.

  set.seed (827);m = 10 ^ 6
x1 = rnorm (m, 100, 2);x2 = rnorm (m, 90, 2)
p = rbinom (m, 1, .5)
x = x1;x [p == 1] = x2 [p == 1]
hist (x, prob = T, col = "skyblue2", main = "Mélange aléatoire 50-50 de NORM (90,2) et NORM (100,2)")
  courbe (.5 * (dnorm (x, 100, 2) + dnorm (x, 90, 2)), add = T, col = "red", lwd = 2)
 

enter image description here

K. A. Buhr
2018-08-28 01:58:14 UTC
view on stackexchange narkive permalink

J'espère qu'il est clair pour vous que C n'est pas garanti d'être normal. Cependant, une partie de votre question était de savoir comment écrire son PDF. @BallpointBen vous a donné un indice. Si cela ne suffit pas, voici quelques spoilers supplémentaires ...

Notez que C peut être écrit comme: $$ C = T \ cdot A + (1-T) \ cdot B $$ pour un Bernoulli aléatoire $ T $ avec $ P (T = 0) = P (T = 1) = 1/2 $ avec $ T $ indépendant de $ (A, B) $. C'est plus ou moins la traduction mathématique standard de l'énoncé anglais "C est A avec 50% de chance et B avec 50% de chance".

Maintenant, déterminer le PDF de C directement à partir de cela semble difficile, mais vous pouvez progresser en écrivant la fonction distribution $ F_C $ of C. Vous pouvez partitionner l'événement $ C \ leq X $ en deux sous-événements (selon la valeur de $ T $) à écrire:

$$ F_C (x) = P (C \ leq x) = P (T = 0 \ text {et} C \ leq x) + P (T = 1 \ text {et C} \ leq x) $$

et notez que par la définition de C et l'indépendance de T et B, vous avez:

$$ P (T = 0 \ text {et} C \ leq x) = P (T = 0 \ text {et} B \ leq x) = \ frac12P (B \ leq x) = \ frac12 F_B ( x) $$

Vous devriez pouvoir utiliser un résultat similaire dans le cas $ T = 1 $ pour écrire $ F_C $ en termes de $ F_A $ et $ F_B $. Pour obtenir le PDF de C, différenciez simplement $ F_C $ par rapport à x.

Notamment, il découle de cette réponse que $ C $ * pourrait * être normal, par ex.quand $ A, B $ sont distribués de manière identique.
André Costa
2018-08-28 00:34:36 UTC
view on stackexchange narkive permalink

Une façon de travailler là-dessus est de l'analyser car la variance tend vers 0. De cette façon, vous obtiendrez une distribution de type Bernoulli, qui n'est (clairement) pas une distribution normale.

Je n'ai pas publié de commentaire car je n'ai pas assez de réputation
Néanmoins, une bonne suggestion.(+1)
HelloGoodbye
2018-08-28 19:29:51 UTC
view on stackexchange narkive permalink

$ C $ n'est pas distribué normalement à moins que $ A $ et $ G $ sont distribués de manière identique. Si $ A $ et $ B $ sont distribués de manière identique, cependant, $ C $ sera également distribué de manière identique.

Preuve

Soit $ F_A $ , $ F_B $ et $ F_C $ être les fonctions de distribution cumulative (CDF) de A, B et C, respectivement, et $ f_A $ , $ f_B $ et $ f_C $ leurs fonctions de densité de probabilité (PDF), c'est-à-dire

$$ \ begin {array} {l} F_A (x) = \ Pr (A < x), \\ F_B (x) = \ Pr (B < x), \\ F_C (x) = \ Pr (C < x), \\ f_A (x) = \ frac {d} {dx} F_A (x), \\ f_B (x) = \ frac {d} {dx} F_B (x), \ text {et} \\ f_C (x) = \ frac {d} {dx} F_C (x). \ end {array} $$

Nous avons également deux événements:

  • $ \ Gamma_1 $ , c'est-à-dire lorsque $ C $ est défini comme $ A $ , qui se produit avec la probabilité $ \ gamma $
  • $ \ Gamma_2 $ , c'est-à-dire lorsque $ C $ est défini comme $ B $ , qui se produit avec une probabilité $ 1 - \ gamma $

Selon la loi de la probabilité totale,

$$ \ begin {array} {rl} F_C (x) \! \! \! \! & = Pr (C < x) \\ & = \ Pr (C < x \ | \ \ Gamma_1) \ Pr (\ Gamma_1) + \ Pr (C < x \ | \ \ Gamma_2) \ Pr (\ Gamma_2) \\ & = \ Pr (A < x) \ Pr (\ Gamma_1) + \ Pr (B < x) \ Pr (\ Gamma_2) \\ & = \ gamma F_A (x) + (1 - \ gamma) F_B (x). \ end {array} $$

Par conséquent,

$$ \ begin {array} {rl} f_C (x) \! \! \! \! & = \ frac {d} {dx} F_C (x) \\ & = \ frac {d} {dx} (\ gamma F_A (x) + (1 - \ gamma) F_B (x)) \\ & = \ gamma \ left (\ frac {d} {dx} F_A (x) \ right) + (1 - \ gamma) \ left (\ frac {d} {dx} F_B (x) \ right) \\ & = \ gamma f_A (x) + (1 - \ gamma) f_B (x), \ end {array} $$

et depuis $ \ gamma = 0.5, $

$$ f_C (x) = 0,5 f_A (x) + 0,5 f_B (x). $$

De plus, puisque le PDF d'une distribution normale est une fonction gaussienne positive, et que la somme de deux fonctions gaussiennes possibles est une fonction gaussienne positive si et seulement si les deux fonctions gaussiennes sont linéairement dépendantes, $ C $ est normalement distribué si et seulement si $ A $ et $ G $ sont distribués de manière identique.

Si $ A $ et $ B $ sont distribués de manière identique, $ f_A (x) = f_B (x) = f_C (x) $ , donc $ C $ sera également distribué de manière identique.

C'est un bon point, mais ne pensez-vous pas que cela aiderait davantage à expliquer * pourquoi * ce résultat tient, au lieu de simplement l'affirmer?Pourriez-vous offrir une explication simple ou claire ou intuitive?
AilijmtmofCMT Mieux?
Dilip Sarwate
2018-08-29 04:21:41 UTC
view on stackexchange narkive permalink

C'est le genre de problème où il est très utile d'utiliser le concept de CDF, la fonction de distribution de probabilités cumulées, de variables aléatoires, ce concept totalement inutile que les professeurs introduisent juste pour confondre les étudiants qui se contentent d'utiliser pdfs.

Par définition, la valeur du CDF $ F_X (\ alpha) $ d'une variable aléatoire $ X $ est égale à la probabilité que $ X $ ne soit pas plus grand que le nombre réel $ \ alpha $, c'est-à-dire, $$ F_X (\ alpha) = P \ {X \ leq \ alpha \}, ~ - \ infty < \ alpha < \ infty. $$ Or, la loi de la probabilité totale nous dit que si $ X $ est également susceptible d'être identique à une variable aléatoire $ A $ ou à une variable aléatoire $ B $, alors $$ P \ {X \ leq \ alpha \} = \ frac 12 P \ {A \ leq \ alpha \} + \ frac 12 P \ {B \ leq \ alpha \}, $$ ou, en d'autres termes, $$ F_X (\ alpha \} = \ frac 12 F_A (\ alpha \} + \ frac 12 F_B (\ alpha \}. $$ En nous souvenant de la façon dont votre professeur a bavardé sans cesse sur la façon dont le pdf est le dérivé du CDF pour les variables aléatoires continues, nous obtenons cela $$ f_X (\ alpha \} = \ frac 12 f_A (\ alpha \} + \ frac 12 f_B (\ alpha \} \ tag {1} $$ qui répond à l'une de vos questions. Pour le cas particulier des variables aléatoires normales $ A $ et $ B $, pouvez-vous déterminer si $ (1) $ donne une densité normale pour $ X $ ou non? Si vous connaissez des notions telles que $$ E [X] = \ int _ {- \ infty} ^ \ infty \ alpha f_X (\ alpha \} \, \ mathrm d \ alpha, \ tag {2} $$ pouvez-vous comprendre, en substituant le côté droit de $ (1) $ pour le $ f_X (\ alpha) $ dans $ (2) $ et en pensant à l'expression, ce que $ E [X] $ est en termes de $ E [A] $ et $ E [B] $?



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 4.0 sous laquelle il est distribué.
Continuer la lecture sur narkive:
Loading...