Question:
Amplitude attendue d'un vecteur à partir d'une normale multivariée
cw'
2015-08-14 14:48:55 UTC
view on stackexchange narkive permalink

Quelle est la grandeur attendue, c'est-à-dire la distance euclidienne de l'origine, d'un vecteur tiré d'une normale sphérique de p dimensions $ \ mathcal {N} _p (\ mu, \ Sigma) $ avec $ \ mu = \ vec { 0} $ et $ \ Sigma = \ sigma ^ 2 I $, où $ I $ est la matrice d'identité?

Dans le cas univarié, cela revient à $ E [| x |] $, où $ x \ sim \ mathcal {N} (0, \ sigma ^ 2) $. C'est la moyenne $ \ mu_Y $ d'une distribution normale pliée avec une moyenne $ 0 $ et une variance $ \ sigma ^ 2 $, qui peut être calculée comme suit:

$ \ mu_Y = \ sigma \ sqrt {\ frac {2} {\ pi}} \, \, \ exp \ left (\ frac {- \ mu ^ 2} {2 \ sigma ^ 2} \ right) - \ mu \, \ mbox {erf} \ left (\ frac {- \ mu} {\ sqrt {2} \ sigma} \ right) \ stackrel {\ mu = 0} {=} \ sigma \ sqrt {\ frac {2} {\ pi} } $

Puisque la normale multivariée est sphérique, j'ai pensé à simplifier le problème en passant aux coordonnées polaires. La distance de l'origine dans n'importe quelle direction ne devrait-elle pas être donnée par une distribution normale pliée? Pourrais-je intégrer sur toutes les distances, multiplier avec la probabilité (infinitésimale) de rencontrer un échantillon avec cette distance (par exemple CDF (rayon) -CDF (rayon-h), $ h \ rightarrow 0 $) et enfin faire le saut à plus de une dimension en multipliant par le "nombre de points" sur une hypersphère de dimension $ p $? Par exemple. $ 2 \ pi r $ pour un cercle, $ 4 \ pi r ^ 2 $ pour une sphère? Je pense que cela pourrait être une question simple, mais je ne sais pas comment exprimer analytiquement la probabilité pour $ h \ rightarrow 0 $.

Des expériences simples suggèrent que la distance attendue suit la forme $ c \ sqrt {\ sigma} $, mais je ne sais pas comment faire le saut vers une distribution multivariée. Au fait, une solution pour $ p \ le 3 $ conviendrait.

enter image description here

Deux réponses:
user3697176
2015-08-14 15:28:45 UTC
view on stackexchange narkive permalink

La somme des carrés des distributions normales standard indépendantes $ p $ est une distribution chi carré avec $ p $ degrés de liberté. La grandeur est la racine carrée de cette variable aléatoire. On l'appelle parfois la distribution chi. (Voir cet article Wikipédia.) La variance commune $ \ sigma ^ 2 $ est un simple facteur d'échelle.

Incorporant certains des commentaires dans cette réponse:

La moyenne de la distribution chi avec $ p $ degrés de liberté est $$ \ mu = \ sqrt {2} \, \, \ frac {\ Gamma ((p + 1) / 2)} {\ Gamma ( p / 2)} $$

Cas particuliers comme noté:

Pour $ p = 1 $, la distribution normale pliée signifie $ \ frac {\ sqrt {2}} { \ Gamma (1/2)} = \ sqrt {\ frac {2} {\ pi}} $.

Pour $ p = 2 $, la distribution est également connue sous le nom de distribution de Rayleigh (avec le paramètre d'échelle 1), et sa moyenne est $ \ sqrt {2} \ frac {\ Gamma (3/2)} {\ Gamma (1)} = \ sqrt {2} \ frac {\ sqrt {\ pi}} {2} = \ sqrt {\ frac {\ pi} {2}} $.

Pour $ p = 3 $, la distribution est connue sous le nom de distribution de Maxwell avec le paramètre 1; sa moyenne est $ \ sqrt {\ frac {8} {\ pi}} $.

Lorsque la variance commune $ \ sigma ^ 2 $ n'est pas 1, la moyenne doit être multipliée par $ \ sigma $ .

Plus spécifiquement, la distribution de la distance euclidienne à l'origine avec $ p = 2 $ est appelée distribution de Rayleigh, avec $ p = 3 $ la distribution de Maxwell-Boltzmann (les deux sont des distributions chi).
Peut-être faut-il ajouter que la moyenne de la distribution chi est égale à $$ \ mu = \ sqrt {2} \ frac {\ Gamma ((p + 1) / 2)} {\ Gamma (p / 2)}, $$ et OP doit le multiplier par $ \ sigma $.
Dilip Sarwate
2015-08-17 10:18:20 UTC
view on stackexchange narkive permalink

La réponse de user3697176 donne toutes les informations nécessaires, mais néanmoins, voici une vision légèrement différente du problème.

Si $ X_i \ sim N (0, \ sigma ^ 2) $, alors $ Y = \ sum_ {i = 1} ^ n X_i ^ 2 $ a une distribution Gamma avec les paramètres $ \ left (\ frac n2, \ frac {1} {2 \ sigma ^ 2} \ droite) $. Maintenant, si $ W \ sim \ Gamma (t, \ lambda) $, alors $$ f_W (w) = \ frac {\ lambda (\ lambda w) ^ {t-1}} {\ Gamma (t)} \ exp (- \ lambda w) \ mathbf 1 _ {\ {w \ colon w > 0 \}} $$ qui bénéficie bien sûr de la propriété que l'aire sous la courbe est de 1 $. Cela nous aide à trouver $ E [\ sqrt {W}] $ sans réellement évaluer explicitement une intégrale. Nous avons cela \ begin {align} E [\ sqrt {W}] & = \ int_0 ^ \ infty \ sqrt {w} \ cdot \ frac {\ lambda (\ lambda w) ^ {t-1}} {\ Gamma (t)} \ exp (- \ lambda w) \, \ mathrm dw \\ & = \ frac {1} {\ sqrt {\ lambda}} \ cdot \ frac {\ Gamma (t + \ frac 12)} {\ Gamma (t)} \ int_0 ^ \ infty \ frac {\ lambda (\ lambda w) ^ {t + \ frac 12-1}} {\ Gamma (t + \ frac 12)} \ exp (- \ lambda w) \, \ mathrm dw \\ & = \ frac {1} {\ sqrt {\ lambda}} \ cdot \ frac {\ Gamma (t + \ frac 12)} {\ Gamma (t)}. \ end {align} Appliquer ceci à $ Y $, on obtient que $$ E \ left [\ sqrt {X_1 ^ 2 + X_2 ^ 2 + \ cdots + X_n ^ 2} \ right] = \ sqrt {2} \ frac {\ Gamma \ left (\ frac {n + 1} {2} \ right)} {\ Gamma \ left (\ frac {n} {2} \ right)} \ sigma. $$ Ces fonctions Gamma peuvent être encore simplifiées et nous obtiendrons toujours un $ \ Gamma (1/2) = \ sqrt {\ pi} $ dans le dénominateur ou le numérateur selon que $ n $ est pair ou impair.



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...